Vom Pentagon finanzierte Studie nutzt KI, um "Verstöße gegen soziale Normen" in Texten zu erkennen

Vom Pentagon finanzierte Studie nutzt KI, um "Verstöße gegen soziale Normen" in Texten zu erkennen

Neue, vom Pentagon finanzierte Forschungen legen nahe, dass künstliche Intelligenz Textblöcke scannen und analysieren kann, um zu erkennen, ob die Menschen, die sie geschrieben haben, etwas Falsches getan haben oder nicht.

Die Studie, die von zwei Forschern der Ben-Gurion Universität verfasst wurde, nutzt Vorhersagemodelle, die Nachrichten auf "Verstöße gegen soziale Normen" analysieren können. Dazu verwendeten die Forscher GPT-3 (ein programmierbares großes Sprachmodell, das von OpenAI entwickelt wurde und die Erstellung und Analyse von Inhalten automatisieren kann) zusammen mit einer Methode zur Datenanalyse, die als Zero-Shot-Textklassifizierung bekannt ist, um breite Kategorien von "Normverletzungen" in Textnachrichten zu identifizieren. Die Forscher fassen das Ziel ihres Projekts folgendermaßen zusammen:

"Während soziale Normen und ihre Verletzungen in der Psychologie und den Sozialwissenschaften intensiv erforscht wurden, ist die automatische Identifizierung von sozialen Normen und ihrer Verletzung eine offene Herausforderung, die für verschiedene Projekte von großer Bedeutung sein kann... Es ist eine offene Herausforderung, weil wir zunächst die Merkmale/Signale/Variablen identifizieren müssen, die darauf hinweisen, dass eine soziale Norm verletzt wurde... Zum Beispiel ist es für die Mehrheit der Berufstätigen eine Verletzung einer sozialen Norm, betrunken und schmutzig im Büro zu erscheinen. Der Maschine/dem Computer "beizubringen", dass ein solches Verhalten eine Normverletzung ist, ist jedoch alles andere als trivial."

...Die Forscher kamen schließlich zu dem Schluss, dass "eine konstruktive Strategie zur Erkennung von Verstößen gegen soziale Normen darin besteht, sich auf eine begrenzte Anzahl von sozialen Emotionen zu konzentrieren, die den Verstoß signalisieren", nämlich Schuld und Scham. Mit anderen Worten: Die Wissenschaftler wollten mithilfe von KI erkennen, wann sich ein Handybenutzer wegen etwas, das er getan hat, schlecht fühlt. Dazu erstellten sie mit GPT-3 ihre eigenen "synthetischen Daten" und trainierten dann mithilfe der Zero-Shot-Textklassifizierung Vorhersagemodelle, die in diesen Daten "automatisch soziale Emotionen erkennen" konnten. Die Hoffnung ist, dass dieses Analysemodell genutzt werden kann, um Textverläufe automatisch nach Anzeichen von Fehlverhalten zu durchsuchen.

Etwas beunruhigend ist, dass diese Forschung von der Defense Advanced Research Projects Agency (DARPA) des Pentagons finanziert wurde. Die 1958 gegründete DARPA steht seit fast einem Jahrhundert an der Spitze der militärischen Forschung und Entwicklung in den USA und war häufig an der Entwicklung einiger der wichtigsten technologischen Innovationen unserer Zeit beteiligt (siehe: Drohnen, Impfstoffe und das Internet, neben vielen anderen). Die Behörde finanziert ein breites Spektrum an Forschungsbereichen, immer in der Hoffnung, das nächste große Ding für die amerikanische Kriegsmaschinerie zu finden.

Die Ben-Gurion-Forscher sagen, dass ihr Projekt durch das DARPA-Programm für computergestütztes kulturelles Verstehen unterstützt wurde - eine Initiative mit dem vagen Auftrag, "kulturübergreifende Sprachverstehens-Technologien zu entwickeln, um das Situationsbewusstsein und die Interaktionseffektivität eines DoD-Operators zu verbessern". Ich bin mir nicht hundertprozentig sicher, was das bedeuten soll, aber es klingt (im Grunde) so, als ob das Pentagon eine Software entwickeln will, die fremde Völker für sie analysieren kann, damit wir, wenn die USA unweigerlich in einen Krieg mit diesen Völkern ziehen, verstehen, wie sie sich dabei fühlen. Warum die DARPA ausgerechnet das Thema "Verletzung sozialer Normen" untersuchen will, ist allerdings etwas unklar. Gizmodo hat die Behörde um weitere Informationen gebeten und wird diese Geschichte aktualisieren, wenn sie antwortet.

Quelle (EN): https://reclaimthenet.org/us-government-is-funding-ai-studies-violated-social-norms

Zurück