robots.txt soll KI-Maschinen am Durchsuchen der site hindern

User-agent: GPTBotAllow: /directory-1/Disallow: /directory-2/ Die robots.txt ist eine Textdatei, die im Stammverzeichnis einer Domain abgelegt wird12. Sie ermöglicht es Webseitenbetreibern, den Zugriff von Suchmaschinen auf die Website zu steuern12. Mit…

Weiterlesenrobots.txt soll KI-Maschinen am Durchsuchen der site hindern

Was sind APIs

Eine API, oder Application Programming Interface, ist eine Reihe von Regeln und Protokollen, die es verschiedenen Softwareanwendungen ermöglichen, miteinander zu kommunizieren. APIs definieren die Methoden und Datenformate, die Anwendungen verwenden…

WeiterlesenWas sind APIs

Die ersten Organisationen erstellen Leitlinien zum KI Einsatz

Dall-E meint das Bild passt zum Thema Deutsche Forschungsgemeinschaft veröffentlicht Leitlinien zu ChatGPT und Co. | heise online Quelle  Heise.de Die Deutsche Forschungsgemeinschaft (DFG) hat Richtlinien für die Verwendung von…

WeiterlesenDie ersten Organisationen erstellen Leitlinien zum KI Einsatz