Fotografie eines Gittergeflechts aus Stahlseilen als symbol für ein Netzwerk oder Neuronale-Struktur

BoTox – Bot- und Kontexterkennung im Umfeld von Hasskommentaren

Das Forschungsprojekt BoTox widmet sich der Erforschung automatisierter Methoden zur Bot- und Kontexterkennung von Hasskommentaren im Netz. Das Ziel ist der Schutz sozialer Diskurse und die Identifikation strafrechtlich relevanter Inhalte, denn in einem zunehmend vernetzten digitalen Raum stellen die Auswirkungen von Hassrede und manipulativen Bots auf unsere Gesellschaft eine große Herausforderung dar.

Das Projekt baut auf den Erkenntnissen des Forschungsprojekts DeTox auf und setzt somit die Forschung zu Hate Speech im Internt fort.


Die automatische Klassifikation von Hasskommentaren hat sich bisher meistens darauf beschränkt, Hasskommentare zu erkennen, also einen Kommentar als Hasskommentar oder „normalen“ Kommentar zu klassifizieren. Das Projekt BoTox geht über diese binäre Klassifikation hinaus.

Das Projekt BoTox

Das Forschungsvorhaben betrifft den Förderbereich “Erforschung und Entwicklung automatisierter Erkennungs- und Klassifikationsverfahren von ‘Fake News’ und ‘Hate Speech’ in Zusammenarbeit mit der Meldestelle Hasskommentare des Hessen3C”.

Automatisierte Erkennung von Hatespeech mit strafrechtlicher Relevanz

Die automatisierte Erkennung von Hatespeech mit strafrechtlicher Relevanz ist von wesentlicher Bedeutung, da sie Plattformbetreibern und Strafverfolgungsbehörden ermöglicht, effektiver auf strafrechtlich relevante Inhalte zu reagieren. In einem Raum, in dem Meinungsfreiheit und strafrechtliche Grenzen eine Gratwanderung sind, ist es entscheidend, Werkzeuge zu entwickeln, die die Identifizierung und Klassifizierung von Hasskommentaren nach relevanten Straftatbeständen ermöglichen und unterstützen. Das deutsche Strafrecht hat 12 Paragrafen, die für Hatespeech relevant sind. Im Projekt BoTox wird Hatespeech automatisiert daraufhin untersucht, ob die Inhalte der Kommentare strafrechtlich relevant sind und welche Paragrafen zutreffen könnten. Das Ziel ist, Plattformbetreibern und Strafverfolgungsbehörden Hilfestellungen bei der Bewältigung der Mengen und der rechtlichen Einschätzung zu geben.

BotCacher: Automatisierte Bot-Erkennung im Umfeld von Hatespeech

Besonders problematisch sind Social Bots, die Hasskommentare verbreiten und damit die Diskussion vergiften und der demokratischen Diskussionskultur schaden. Solche „Hate Bots“, die vorgeben Menschen zu sein, beeinflussen die Diskurse entweder dadurch, dass sie selbst automatisiert Inhalte verbreiten und mit anderen Nutzern kommunizieren oder aber durch das Liken, Teilen und Kommentieren von Hatespeech. Beide Varianten sollen im Rahmen des Forschungsprojektes betrachtet werden.

Die Erkennung von Hate Bots ist für die Meldestelle Hasskommentare des Hessen3C für die strafrechtliche Verfolgung von Hasskommentaren äußerst relevant. Darüber hinaus können bei einer Erkennung von Hate Bots die Netzwerke zur Löschung aufgefordert oder auch die Öffentlichkeit informiert werden, sodass das manipulative Ziel nicht mehr erreicht werden kann.

Kontextdetektor: Hatespeech-Detektion unter Einbeziehung des Kontextes

Die Kontexterkennung im Umfeld von Hasskommentaren ist essenziell, um Kommentare richtig zu verstehen und einordnen zu können, denn häufig werden Kommentare missverstanden und können nicht richtig bewertet werden, wenn sie isoliert betrachtet werden und der Zusammenhang fehlt. Der Kontextdetektor zielt darauf ab, diesen Zusammenhang zu erfassen und zu analysieren, um eine präzisere Bewertung von Kommentaren zu ermöglichen.

Bisher ist es im Rahmen der Hatespeech-Detektion und -Analyse in der Regel so, dass nur einzelne aus dem Kontext gerissene Kommentare betrachtet und bewertet werden. Jedoch können Kommentare oft nur im konkreten Kontext richtig interpretiert werden. Insbesondere wenn Metaphern, Ironie oder Sarkasmus eine Rolle spielen, kann der Kontext zum Verständnis beitragen.

Ziele des Projekts BoTox

Mit BoTox sollen fortschrittliche Methoden zur automatisierten Erkennung von Hasskommentaren mit strafrechtlicher Relevanz zu entwickelt werden. Der Fokus liegt auf der Klassifizierung strafrechtlich relevanter Hasskommentare, der Entwicklung von Werkzeugen zur Kontextanalyse und der Identifizierung manipulativer HateBots. Plattformen und Behörden sollen effektive Mittel an die Hand gegeben werden, um gegen Hassrede vorzugehen und die Diskussionskultur zu schützen.

Partner

Hochschule Darmstadt

Melanie Siegel ist seit 2012 Professorin für Informationswissenschaft – insbesondere semantische Technologien an der Hochschule Darmstadt. Sie hat 1996 an der Universität Bielefeld in Linguistik promoviert und 2007 mit einer Venia für Computerlinguistik und Sprachtechnologie habilitiert. Sie hat von 1995 bis 2006 am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und der Universität Saarbrücken zu Themen der Sprachtechnologie geforscht. 2006 bis 2012 arbeitete sie als Computerlinguistin in einer Software-Firma. 2018 und 2019 hat sie gemeinsam mit Wissenschaftlern aus Saarbrücken, Heidelberg, Mannheim, Potsdam und Zürich die „GermEval Shared Task on the Identification of Offensive Language“ organisiert. Siegel ist Mitglied im Forschungszentrum für angewandte Informatik der Hochschule Darmstadt und im Promotionsausschuss des Promotionszentrums für angewandte Informatik der hessischen Hochschulen.

  • Uliana Vedenina hat ihren Master-Abschluss im Fach Computational Linguistics an der Universität Tübingen im Jahr 2023 absolviert und arbeitet derzeit als wissenschaftliche Mitarbeiterin im Projekt Botox. 
    Während ihres Studiums und ihrer Arbeit als studentische Hilfskraft spezialisierte 
    sie sich auf Natural Language Processing und maschinelles Lernen. Ihr Schwerpunkt lag dabei auf Sprachmorphologie, Abhängigkeitsanalyse und Sprachen mit begrenzten Ressourcen.
    Ihr aktuelles Forschungsinteresse liegt im Bereich der Bot-Erkennung.

    Jonas Wortmann studiert Data Science im Master an der Hochschule Darmstadt und arbeitet seit drei Jahren an diversen NLP-Projekten.

    Luisa Emily Pivit studiert an der Hochschule Darmstadt Information Science im Bachelor und arbeitet als studentische Hilfskraft im Forschungsprojekt BoTox.

Fraunhofer SIT / Hochschule Mittweida

Dirk Labudde ist seit 2017 Leiter des Lernlabors Cybersicherheit der Fraunhofer Academy und Gruppenleiter am SIT Darmstadt. Seit 2009 hat er eine Professur für Bioinformatik und seit 2014 für Allgemeine und Digitale Forensik an der Hochschule Mittweida und leitet dort auch die Forschungsgruppe FoSIL, welche sich mit den verschiedensten forensischen Fragestellungen aktuellen Themen aus der sicherheitsrelevanten Forschung beschäftigt und in dessen Rahmen viele Vorarbeiten zum beantragten Projekt entstanden sind. Der Kern liegt in der Identifikation von aus forensischer- bzw. Sicherheitssicht relevanten, innovativen Technologien und deren Verbindung mit agilem Wissensmanagement zu Werkzeugen für die Forensische Praxis bzw. den Einsatz im interdisziplinären Management im Krisen- und Katastropheneinsatz. Einer der Forschungsschwerpunkte ist die semantische Analyse von forensischen Texten und Bildern/Videos. Die entwickelten Softwareplattformen MoNA und SoNA werden heute in den verschiedensten Behörden der Länder und des Bundes eingesetzt. Dirk Labudde hat 1997 in Theoretischer Physik an der Universität Rostock promoviert. Er erhielt 2014 den sächsischen Lehrpreis und wurde 2018 Fellow der IARIA.

  • Vincent Kums ist Student an der Hochschule Mittweida im Master Cybercrime/Cybersecurity und seit Ende 2023 wissenschaftlicher Mitarbeiter an der Hochschule Fresenius in Idstein. Im Jahr 2023 hat er das Bachelorstudium der Allgemeinen und Digitalen Forensik mit einer Arbeit zum Thema Vergleich von LLMs zur Analyse forensisch relevanter Chat-Kommunikation abgeschlossen.
  •  
  • Florian Meyer hat im Juni 2023 seinen Masterabschluss im Fach Cybercrime/Cybersecurity an der Hochschule Mittweida absolviert und ist dort seitdem als wissenschaftlicher Mitarbeiter in der Forschungsgruppe FoSIL angestellt. 
    Als Doktorand am Promotionszentrum für angewandte Informatik beschäftigt er sich thematisch mit der Verbreitung von Hatespeech im digitalen Raum und dem Zusammenhang zwischen digitaler und realer Gewalt. 

Kontakt

No entries available.

Das Projekt BoTox wird über die Forschungsförderung Cybersicherheit des Hessischen Ministeriums des Innern, für Sicherheit und Heimatschutz gefördert.