Forschung zum möglichen Missbrauch von KI bei der Online -Meinungsbildung

OpenAI macht sich als Unternehmen auch Gedanken, was an Missbrauch im Bereich der online Kommunikation möglich ist

hier der LINK:

https://openai.com/research/forecasting-misuse

Der Bericht stammt aus dem Januar 2023, es wir d interessant sein zu beobachten was im Laufe der Zeit zu beobachten ist.

Auszüge aus der Einleitung des Berichts:

Mit der Verbesserung generativer Sprachmodelle eröffnen sie neue Möglichkeiten in so unterschiedlichen Bereichen wie Gesundheitswesen, Recht, Bildung und Wissenschaft. Aber wie bei jeder neuen Technologie lohnt es sich, darüber nachzudenken, wie sie missbraucht werden können. Vor dem Hintergrund wiederkehrender Online-Beeinflussungsoperationen – verdeckter oder betrügerischer Bemühungen, die Meinung einer Zielgruppe zu beeinflussen – fragt das Papier:

Wie können sich Sprachmodelle ändern, Operationen beeinflussen, und welche Schritte können unternommen werden, um diese Bedrohung zu mindern?

Wie könnte sich KI auf den Betrieb auswirken?

Wenn Forscher Einflussoperationen bewerten, berücksichtigen sie die Akteure, Verhaltensweisen und Inhalte. Die weit verbreitete Verfügbarkeit von Technologien, die auf Sprachmodellen basieren, hat das Potenzial, sich auf alle drei Facetten auszuwirken:

  1. Akteure: Sprachmodelle könnten die Kosten für die Ausführung von Einflussoperationen senken und sie in die Reichweite neuer Akteure und Akteurtypen bringen. Ebenso können Influencer, die die Produktion von Texten automatisieren, neue Wettbewerbsvorteile erzielen.
  2. Verhalten: Einflussvorgänge mit Sprachmodellen lassen sich leichter skalieren, und Taktiken, die derzeit teuer sind (z. B. das Generieren personalisierter Inhalte), können billiger werden. Sprachmodelle können auch neue Taktiken ermöglichen, wie z. B. die Generierung von Inhalten in Echtzeit in Chatbots.
  3. Inhalt: Texterstellungstools, die auf Sprachmodellen basieren, können im Vergleich zu Influencer wirkungsvollere oder überzeugendere Botschaften erzeugen, insbesondere diejenigen, denen die erforderlichen sprachlichen oder kulturellen Kenntnisse ihrer Zielgruppe fehlen. Sie können auch dazu führen, dass Einflussvorgänge weniger auffindbar sind, da sie wiederholt neue Inhalte erstellen, ohne auf Kopieren und Einfügen und andere spürbare zeitsparende Verhaltensweisen zurückgreifen zu müssen.

Unser Fazit ist, dass Sprachmodelle für Influencer nützlich sein werden und wahrscheinlich Online-Beeinflussungsoperationen verändern werden. Selbst wenn die fortschrittlichsten Modelle privat gehalten oder über den Zugriff auf die Anwendungsprogrammierschnittstelle (API) kontrolliert werden, werden sich die Influencer wahrscheinlich zu Open-Source-Alternativen hingezogen fühlen, und die Nationalstaaten könnten selbst in die Technologie investieren.

Kritische Unbekannte

Viele Faktoren beeinflussen, ob und in welchem Umfang Sprachmodelle bei Einflussoperationen verwendet werden. Unser Bericht befasst sich mit vielen dieser Überlegungen. Zum Beispiel:

  • Welche neuen Einflussmöglichkeiten ergeben sich als Nebeneffekt gut gemeinter Forschung oder kommerzieller Investitionen? Welche Akteure werden signifikant in Sprachmodelle investieren?
  • Wann werden einfach zu bedienende Tools zum Generieren von Text öffentlich verfügbar sein? Wird es effektiver sein, spezifische Sprachmodelle für Einflussoperationen zu entwickeln, anstatt generische anzuwenden?
  • Werden sich Normen entwickeln, die Akteure, die KI-gestützte Einflussoperationen betreiben, abschrecken? Wie werden sich die Intentionen der Akteure entwickeln? Anmerkung aus dem Juni 2032 : hier ist für Deutschland die EU -Verordnung zu beachten.

Während wir eine Verbreitung der Technologie sowie Verbesserungen bei der Benutzerfreundlichkeit, Zuverlässigkeit und Effizienz von Sprachmodellen erwarten, bleiben viele Fragen über die Zukunft unbeantwortet. Da es sich hierbei um wichtige Möglichkeiten handelt, die die Art und Weise verändern können, wie sich Sprachmodelle auf den Betrieb auswirken können, ist zusätzliche Forschung zur Verringerung der Unsicherheit sehr wertvoll.

Ein Rahmen für Risikominderungen

Um einen Weg in die Zukunft zu skizzieren, legt der Bericht die wichtigsten Phasen in der Pipeline von Sprachmodellen zur Beeinflussung von Vorgängen dar. Jede dieser Phasen ist ein Punkt für potenzielle Abhilfemaßnahmen. Um eine Beeinflussungsoperation unter Verwendung eines Sprachmodells erfolgreich durchzuführen, benötigen Influencer, dass: (1) ein Modell existiert, (2) sie zuverlässig darauf zugreifen können, (3) sie Inhalte aus dem Modell verbreiten können und (4) ein Endbenutzer betroffen ist. Viele mögliche Strategien zur Risikominderung lassen sich entlang dieser vier Schritte entwickeln, wie unten dargestellt.

Phase in der Pipeline1. Modellbau2. Zugriff auf das Modell3. Verbreitung von Inhalten4. Meinungsbildung
Illustrative AbhilfemaßnahmenKI-Entwickler erstellen Modelle, die faktensensitiver sind.KI-Anbieter legen strengere Nutzungsbeschränkungen für Sprachmodelle fest.Plattformen und KI-Anbieter koordinieren sich, um KI-Inhalte zu identifizieren.Institutionen engagieren sich in Kampagnen zur Förderung der Medienkompetenz.
Entwickler verbreiten radioaktive Daten, um generative Modelle nachweisbar zu machen.KI-Anbieter entwickeln neue Normen rund um die Modellfreigabe.Plattformen verlangen einen „Personennachweis“, um zu posten.Entwickler stellen verbraucherorientierte KI-Tools zur Verfügung.
Regierungen schränken die Datenerfassung ein.KI-Anbieter schließen Sicherheitslücken.Unternehmen, die sich auf öffentliche Beiträge verlassen, ergreifen Maßnahmen, um ihre Gefährdung durch irreführende KI-Inhalte zu verringern.
Regierungen führen Zugangskontrollen für KI-Hardware durch.Digitale Provenienzstandards sind weit verbreitet.

Wenn eine Abschwächung vorhanden ist, ist sie wünschenswert?

Nur weil eine Abschwächung die Bedrohung durch KI-gestützte Einflussoperationen verringern könnte, heißt das nicht, dass sie eingeführt werden sollte. Einige Abhilfemaßnahmen bergen ihre eigenen Abwärtsrisiken. Andere sind möglicherweise nicht realisierbar. Obwohl wir Minderungsmaßnahmen nicht ausdrücklich befürworten oder bewerten, enthält das Papier eine Reihe von Leitfragen, die politische Entscheidungsträger und andere berücksichtigen sollten:

  • Technische Machbarkeit: Ist die vorgeschlagene Abschwächung technisch machbar? Erfordert es wesentliche Änderungen an der technischen Infrastruktur?
  • Soziale Machbarkeit: Ist die Minderung aus politischer, rechtlicher und institutioneller Sicht machbar? Erfordert es eine kostspielige Koordination, gibt es Anreize für Schlüsselakteure, es umzusetzen, und ist es nach bestehenden Gesetzen, Vorschriften und Industriestandards umsetzbar?
  • Abwärtsrisiko: Was sind die potenziellen negativen Auswirkungen der Minderung und wie bedeutend sind sie?
  • Auswirkungen: Wie wirksam wäre eine vorgeschlagene Abschwächung bei der Verringerung der Bedrohung?

Schreibe einen Kommentar