Das Erkennen von von ChatGPT generiertem Text ist jetzt schwieriger

Quelle: https://ici.radio-canada.ca/nouvelle/2010600/chat-gpt-regenerate-response-as-an-ai-plagiat

Hier ist eine Zusammenfassung des Artikels:

Das Erkennen von von ChatGPT generiertem Text ist jetzt schwieriger Einfache Tricks zur Erkennung von durch künstliche Intelligenz geschriebenen Sätzen funktionieren seit einem aktuellen Update des Konversationsroboters nicht mehr.
• Nicholas De Rosa (Profil ansehen)Nicholas DeRosa • Jeff Yates (Profil ansehen)Jeff Yates
Veröffentlicht am 16. September, 10:00 UTC+2
„  regenerate message“ » Dies ist der Text der Schaltfläche, die sich unter jedem vom ChatGPT-Konversationsroboter generierten Text befand, damit Benutzer eine neue Antwort auf ihren Befehl erhalten können.
Bis vor kurzem war dieser Text auch eine der einfachsten Möglichkeiten, durch künstliche Intelligenz generierte Inhalte im Web zu finden. Tatsächlich kam es manchmal vor, dass Leute, die es etwas eilig hatten, den von ChatGPT generierten Text kopierten und einfügten, aber versehentlich die in der Schaltfläche enthaltene „  Antwort neu generieren  “ einfügten. Ergebnis: Eine einfache Suche mit dem Stichwort „  regenerate message “ auf allen möglichen Plattformen ermöglichte das Auffinden einer ganzen Reihe künstlicher Texte, die mit diesem Tool erstellt wurden, angefangen von Robotertexten auf Posts auf Facebook. Dieser einfache Trick ermöglichte es dem Informatikprofessor Guillaume Cabanac, die Autoren von mehr als einem Dutzend wissenschaftlicher Artikel zu finden , die ChatGPT als Teil ihrer Arbeit verwendeten, ohne dies zu deklarieren. Und das ist nur die Spitze des Eisbergs: Wie viele von jeder Person, die vergessen hat, dieses kleine Stück Text zu löschen, hatten den Reflex, es zu tun? Ein einfaches erneutes Lesen reicht aus. Subtile, aber wichtige Änderungen Aber wenn wir hier im Unvollkommenen schreiben, dann deshalb, weil OpenAI irgendwann in den letzten Tagen die ChatGPT-Schnittstelle geändert hat. Die Schaltfläche  „ regenerate message  “ wurde einfach zu „  regenerate  “. 
Eine ziemlich triviale Änderung, die manche sagen würden, aber mit der Folge, dass es schwieriger wird, Veröffentlichungen zu finden, die versehentlich den Schaltflächentext enthalten. Das Wort „  regenerate  “ ist in der englischen Sprache so verbreitet, dass durch künstliche Intelligenz (KI) generierte Texte im Dschungel des Webs untergehen. Und das ist nicht alles. Andere gängige Formulierungen, mit denen ChatGPT sich weigerte, Texte zu produzieren, die gegen seine Nutzungsbedingungen verstießen – zum Beispiel sexistische, rassistische oder grobe Inhalte –, scheinen laut Tests der Decryptors vom Roboter nicht mehr verwendet zu werden . Diese Formulierungen, etwa als KI und als KI-Sprachmodell , wurden durch viel profanere Formulierungen ersetzt. Bei einem Test, den wir im Juni durchgeführt haben, haben wir ChatGPT gebeten, Informationen zu einem aktuellen Thema zu überprüfen. Damals lehnte der Roboter ab und antwortete: „ Als von OpenAI trainierte KI habe ich keinen Zugriff auf das Internet in Echtzeit, um aktuelle Ereignisse zu überprüfen .“ Während unseres gestrigen Tests antwortete ChatGPT einfach: „ Ich bin nicht in der Lage, das betreffende spezifische Ereignis zu verifizieren“ , eine viel gewöhnlichere Formulierung als die formelhaftere Antwort, die Anfang des Sommers angeboten wurde. Formatierte ChatGPT-Antworten wurden beispielsweise von einigen verwendet, um automatisierte Konten zu finden (Neues Fenster)auf X. Diese Bots, von denen vermutet wurde, dass sie so programmiert sind, dass sie automatisch auf andere Konten auf der Plattform reagieren, veröffentlichten häufig diese Fehlermeldungen. Soweit wir sehen können, tauchen diese Formulierungen seit Juli auf X deutlich seltener auf. Es lässt sich nicht sagen, ob das daran liegt, dass ChatGPT nicht mehr die alten Fehlermeldungen verwendet oder ob es weniger Bots auf der Plattform gibt. Es lässt sich auch nicht sagen, ob diese Formulierungen aus ChatGPT verschwunden sind oder ob sie einfach deutlich seltener vorkommen. Doch Befehle, die zuvor dafür gesorgt hätten, dass der Chatbot diese Sätze zuverlässig aussprach, funktionierten in unseren letzten Tests nicht.
Es muss noch mehr getan werden, sagen Ethikexperten Für den leitenden Forscher am Digital and AI Ethics Laboratory, Frédérick Bruneault, stellt diese neue Entwicklung ein Problem für die Erkennung von KI-generierten Texten dar, da die verfügbare Erkennungssoftware einfach nicht zuverlässig ist  „Das war der einfachste Weg, um zu erkennen, dass es sich um vom Chatbot generierten Text handelte. Dies erhöht die Schwierigkeit, die mit all diesen Problemen verbunden ist, beispielsweise mit dem Bildungssektor, der dadurch völlig auf dem Kopf steht . „Wir können die soziale Verantwortung von Unternehmen wie OpenAI in Frage stellen“, glaubt Herr Bruneault. Dominic Martin, Leiter der Abteilung für Ethik der künstlichen Intelligenz am Centre for Research in Ethics der Universität Montreal, hält es für durchaus möglich, dass die generischen Formulierungen geändert wurden, um den Roboter eher wie ein menschliches Wesen sprechen zu lassen, aber diese Änderung bleibt problematisch. „Wir müssen zunehmend wissen, wann Inhalte von einer KI in mehreren Umgebungen generiert wurden, und wir brauchen viel mehr als ein Modell, das uns manchmal in seinen Antworten sagt, dass es sich um einen Konversationsroboter handelt“, sagte er und erinnerte daran, dass diese Techniken nur gemacht wurden Es ist möglich, Menschen mit schlechten Absichten zu identifizieren , die sich überhaupt nicht durchsetzen . Die Idee eines Wasserzeichens wurde insbesondere von einigen Experten erwähnt (Neues Fenster), darunter Herr Martin. OpenAI antwortete nicht auf unsere E-Mail mit der Frage, warum die Schaltfläche „  Antwort neu generieren  “ und die ChatGPT-Fehlermeldungen geändert wurden. Also haben wir ChatGPT selbst gefragt. „Ich wurde darauf programmiert, unterschiedliche Antworten anzubieten, um unsere Gespräche spannender und weniger eintönig zu gestalten“, antwortete der Roboter.

Schreibe einen Kommentar