Instagram kämpft gegen Hass und Mobbing

Instagram Mobbing: Facebook-Tochter sagt Hass und Mobbing den Kampf an

Mit neuen Funktionen will Instagram Mobbing und Anfeindungen auf der Plattform bekämpfen. Das soziale Netzwerk setzt dabei auf Algorithmen, die Hasskommentare schon vor dem Posten erkennen sollen.

Instagram Mobbing-Schutz mithilfe von KI

Das Foto-Netzwerk Instagram hat neue Funktionen vorgestellt, die Nutzer besser vor Hasskommentaren und Instagram Mobbing schützen sollen. Insbesondere setzt die Facebook-Tochter mit Hilfe von künstlicher Intelligenz (KI) nun auf Warnhinweise, mit denen Absender noch vor dem Posten auf potenziell verletzende Kommentare hingewiesen werden sollen.

Zum anderem werden Nutzer künftig die Möglichkeit haben, die Sichtbarkeit von Kommentaren bestimmter Personen einzuschränken, von denen sie sich belästigt fühlen.

Hassfilter greift vor dem Absenden von Beleidigungen

Mit dem Einblenden von Warnhinweisen bei Hasskommentaren («Bist du sicher, dass du das posten möchtest?») hat die Fotoplattform bereits begonnen. Dazu werden Kommentare in Echtzeit auf verletzende Inhalte hin analysiert. Noch vor dem Posten sollen Nutzer damit angeregt werden, ihren Kommentar nicht abzusenden und wieder zu löschen.

Bei den ersten Tests der KI-Funktion soll sich laut Instagram bereits gezeigt haben, dass manche Personen Beiträge zurückzögen und weniger verletzende verfassten.

Mobbende Personen einschränken

Mit der zweiten Neuerung zur Einschränkung von Personen («Restrict») soll Nutzern ein Mittel an die Hand gegeben werden, sich besser vor Mobbing zu schützen – ohne dass der Absender von Hasskommentaren blockiert, entfolgt oder gemeldet werden muss. Insbesondere jüngere Nutzer scheuten diesen Schritt aus Angst, die Situation dadurch zu verschlimmern oder nicht über die Aktivitäten des Instagram Mobbing auf dem Netzwerk im Bilde sein zu können.

Aus diesem Grund sollen Kommentare bestimmter Personen in Zukunft so eingeschränkt werden können, dass diese unter den Beiträgen nur für den Absender und den Betroffenen selbst sichtbar sind – es sei denn der Nutzer genehmigt aktiv einen solchen Kommentar.

Instagram will mit Hilfe einer KI stärker gegen Mobbing vorgehen

Für mehr Schutz sorgen soll auch, dass eingeschränkten Personen künftig verborgen bleibt, ob gesendete Direkt-Nachrichten gelesen wurden oder der sich schützende Nutzer gerade auf der Plattform aktiv ist. Mit ersten Tests des neuen «Restrict»-Tools will Instagram in Kürze beginnen.

Instagram Mobbing: Algorithmen sollen helfen

Eigenen Angaben zufolge nutzt das Social Network bereits seit Jahren künstliche Intelligenz, um Mobbing und andere Arten verletzender Inhalte in Kommentaren, Fotos und Videos zu erkennen. Diese Technologie sei besonders wichtig für Jugendliche, da diese Mobbing seltener meldeten, obwohl sie am häufigsten darunter zu leiden hätten, wie Instagram-Chef Adam Mosser im Blog-Beitrag zur Ankündigung erklärt.

Bereits im vergangenen Jahr hat Instagram seinen Hassfilter zum automatischen Ausblenden anstössiger Kommentare weiter ausgebaut, um auch Angriffe auf das Erscheinungsbild und den Charakter einer Person herauszufiltern.

Zudem wurden die Filtermechanismen zum möglichst schnellen Erkennen von Mobbing-Kommentaren auf Live-Videos ausgeweitet. Maschinelles Lernen soll Anfeindungen in Fotos und Bildunterschriften proaktiv erkennen und der Plattform direkt zur Überprüfung melden.

Fotos: Screenshot Lena Meyer Landruth Instagram / Youtube

Einen Kommentar hinterlassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.