<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Diskriminierung Archive - Helmut Hahn Datenschutz und IT-Seminare</title>
	<atom:link href="https://hghahn.de/category/diskriminierung/feed/" rel="self" type="application/rss+xml" />
	<link>https://hghahn.de/category/diskriminierung/</link>
	<description>DSGVO  und  interessantes aus der IT</description>
	<lastBuildDate>Thu, 30 Apr 2026 19:52:20 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://hghahn.de/wp-content/uploads/2022/10/cropped-bild1-scaled-1-32x32.jpg</url>
	<title>Diskriminierung Archive - Helmut Hahn Datenschutz und IT-Seminare</title>
	<link>https://hghahn.de/category/diskriminierung/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Diskriminierung 2.0 Warum das deutsche Antidiskriminierungsgesetz bei KI versagt</title>
		<link>https://hghahn.de/diskriminierung-2-0-warum-das-deutsche-antidiskriminierungsgesetz-bei-ki-versagt/</link>
		
		<dc:creator><![CDATA[Helmut Hahn]]></dc:creator>
		<pubDate>Thu, 05 Mar 2026 15:52:48 +0000</pubDate>
				<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[KI]]></category>
		<guid isPermaLink="false">https://hghahn.de/diskriminierung-2-0-warum-das-deutsche-antidiskriminierungsgesetz-bei-ki-versagt/</guid>

					<description><![CDATA[<p># Diskriminierung 2.0 Warum das deutsche Antidiskriminierungsgesetz bei KI versagt Dieser Text wurde ganz oder teilweise mit Hilfe von KI erstellt. Stand: 05.03.2026 Künstliche Intelligenz wird zunehmend eingesetzt, um Entscheidungen über Menschen zu treffen. Beispiele sind automatisierte Bewerbungsprozesse, Kreditbewertungen oder Preisberechnungen im Onlinehandel. Gleichzeitig wächst die Sorge, dass solche Systeme bestehende Vorurteile reproduzieren oder neue [&#8230;]</p>
<p>Der Beitrag <a href="https://hghahn.de/diskriminierung-2-0-warum-das-deutsche-antidiskriminierungsgesetz-bei-ki-versagt/">Diskriminierung 2.0 Warum das deutsche Antidiskriminierungsgesetz bei KI versagt</a> erschien zuerst auf <a href="https://hghahn.de">Helmut Hahn Datenschutz und IT-Seminare</a>.</p>
]]></description>
		
		
		
			</item>
		<item>
		<title>KI in der Personalarbeit Wettlauf zwischen Innovation und EU Regulierung</title>
		<link>https://hghahn.de/ki-in-der-personalarbeit-wettlauf-zwischen-innovation-und-eu-regulierung/</link>
		
		<dc:creator><![CDATA[Helmut Hahn]]></dc:creator>
		<pubDate>Thu, 05 Mar 2026 15:32:24 +0000</pubDate>
				<category><![CDATA[Datenschutz]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[KI]]></category>
		<guid isPermaLink="false">https://hghahn.de/ki-in-der-personalarbeit-wettlauf-zwischen-innovation-und-eu-regulierung/</guid>

					<description><![CDATA[<p>KI in der Personalarbeit Wettlauf zwischen Innovation und EU Regulierung Dieser Text wurde (ganz oder teilweise) mit Hilfe von KI erstellt. Stand 05.03.2026 Künstliche Intelligenz verändert zunehmend die Arbeit in Personalabteilungen. Unternehmen nutzen KI gestützte Systeme beispielsweise für die Vorauswahl von Bewerbungen die Analyse von Lebensläufen automatisierte Kommunikation mit Kandidaten oder die Auswertung von Mitarbeiterdaten. [&#8230;]</p>
<p>Der Beitrag <a href="https://hghahn.de/ki-in-der-personalarbeit-wettlauf-zwischen-innovation-und-eu-regulierung/">KI in der Personalarbeit Wettlauf zwischen Innovation und EU Regulierung</a> erschien zuerst auf <a href="https://hghahn.de">Helmut Hahn Datenschutz und IT-Seminare</a>.</p>
]]></description>
		
		
		
			</item>
		<item>
		<title>KI und Frauen im Arbeitsmarkt Ergebnisse der McKinsey Studie Women in the Workplace 2025</title>
		<link>https://hghahn.de/ki-und-frauen-im-arbeitsmarkt-ergebnisse-der-mckinsey-studie-women-in-the-workplace-2025/</link>
		
		<dc:creator><![CDATA[Helmut Hahn]]></dc:creator>
		<pubDate>Thu, 05 Mar 2026 15:25:35 +0000</pubDate>
				<category><![CDATA[Arbeitswelt]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[KI]]></category>
		<guid isPermaLink="false">https://hghahn.de/ki-und-frauen-im-arbeitsmarkt-ergebnisse-der-mckinsey-studie-women-in-the-workplace-2025/</guid>

					<description><![CDATA[<p>KI und Frauen im Arbeitsmarkt Ergebnisse der McKinsey Studie Women in the Workplace 2025 Dieser Text wurde ganz oder teilweise mit Hilfe von KI erstellt. Die Studie Women in the Workplace 2025 von McKinsey und LeanIn.org untersucht wie sich künstliche Intelligenz auf Karrierechancen im Arbeitsmarkt auswirkt und welche Unterschiede zwischen Frauen und Männern bestehen. Die [&#8230;]</p>
<p>Der Beitrag <a href="https://hghahn.de/ki-und-frauen-im-arbeitsmarkt-ergebnisse-der-mckinsey-studie-women-in-the-workplace-2025/">KI und Frauen im Arbeitsmarkt Ergebnisse der McKinsey Studie Women in the Workplace 2025</a> erschien zuerst auf <a href="https://hghahn.de">Helmut Hahn Datenschutz und IT-Seminare</a>.</p>
]]></description>
		
		
		
			</item>
		<item>
		<title>Which Humans? – Das Problem der Generalisierung aus WEIRD-Populationen</title>
		<link>https://hghahn.de/which-humans-das-problem-der-generalisierung-aus-weird-populationen/</link>
		
		<dc:creator><![CDATA[Helmut Hahn]]></dc:creator>
		<pubDate>Wed, 29 Oct 2025 11:57:20 +0000</pubDate>
				<category><![CDATA[CHATGPT]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[Programmierung]]></category>
		<guid isPermaLink="false">https://hghahn.de/?p=136135</guid>

					<description><![CDATA[<p>&#160; Datum: 2025‑10‑29 Die Forschung zeigt, dass viele Aussagen über „den Menschen“ auf einer sehr speziellen Teilmenge der Weltbevölkerung basieren – meist aus westlich, gebildet, industrialisiert, reich und demokratisch geprägten Gesellschaften (WEIRD). Das Paper „Which Humans?“ (Henrich et al., 2023) wirft genau diese Frage auf: „Welche Menschen?“ – und warum diese Frage für Wissenschaft und KI relevant ist. AusgangslageEin [&#8230;]</p>
<p>Der Beitrag <a href="https://hghahn.de/which-humans-das-problem-der-generalisierung-aus-weird-populationen/">Which Humans? – Das Problem der Generalisierung aus WEIRD-Populationen</a> erschien zuerst auf <a href="https://hghahn.de">Helmut Hahn Datenschutz und IT-Seminare</a>.</p>
]]></description>
		
		
		
			</item>
		<item>
		<title>Diskriminierung durch den Einsatz von Künstlicher Intelligenz (KI)</title>
		<link>https://hghahn.de/diskriminierung-durch-den-einsatz-von-kuenstlicher-intelligenz-ki/</link>
		
		<dc:creator><![CDATA[Helmut Hahn]]></dc:creator>
		<pubDate>Mon, 27 Oct 2025 15:34:14 +0000</pubDate>
				<category><![CDATA[amazon]]></category>
		<category><![CDATA[Bildungs-System]]></category>
		<category><![CDATA[Computer Vision (Bild-/Gesichtserkennung allgemein)]]></category>
		<category><![CDATA[Datensicherheit]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[gesundheit]]></category>
		<category><![CDATA[KI]]></category>
		<guid isPermaLink="false">https://hghahn.de/diskriminierung-durch-den-einsatz-von-kuenstlicher-intelligenz-ki/</guid>

					<description><![CDATA[<p>Diskriminierung durch den Einsatz von Künstlicher Intelligenz (KI) kann in verschiedenen gesellschaftlichen Bereichen verstärkt oder vermindert werden – je nach Gestaltung, Training und Kontrolle der Systeme. Hier eine ausführliche Übersicht: Bereiche, in denen Diskriminierung durch KI verstärkt werden kann:&#8211; Personalwesen (Recruiting): Algorithmen benachteiligen Bewerber*innen aufgrund von Namen, Geschlecht oder Herkunft. Zum Beispiel hat Amazon ein [&#8230;]</p>
<p>Der Beitrag <a href="https://hghahn.de/diskriminierung-durch-den-einsatz-von-kuenstlicher-intelligenz-ki/">Diskriminierung durch den Einsatz von Künstlicher Intelligenz (KI)</a> erschien zuerst auf <a href="https://hghahn.de">Helmut Hahn Datenschutz und IT-Seminare</a>.</p>
]]></description>
		
		
		
			</item>
		<item>
		<title>ChatGPT macht Fortschritte bei der Darstellung von Menschen mit Behinderung – aber Diskriminierung bleibt</title>
		<link>https://hghahn.de/chatgpt-macht-fortschritte-bei-der-darstellung-von-menschen-mit-behinderung-aber-diskriminierung-bleibt/</link>
		
		<dc:creator><![CDATA[Helmut Hahn]]></dc:creator>
		<pubDate>Sun, 26 Oct 2025 10:51:36 +0000</pubDate>
				<category><![CDATA[Bildungs-System]]></category>
		<category><![CDATA[CHATGPT]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[Programmierung]]></category>
		<guid isPermaLink="false">https://hghahn.de/chatgpt-macht-fortschritte-bei-der-darstellung-von-menschen-mit-behinderung-aber-diskriminierung-bleibt/</guid>

					<description><![CDATA[<p>ChatGPT macht Fortschritte bei der Darstellung von Menschen mit Behinderung – aber Diskriminierung bleibt Künstliche Intelligenz kann heute komplexe Aufgaben lösen, Texte schreiben und realistische Bilder erzeugen. Doch gerade im Bereich der Inklusion zeigt sich, dass technische Fortschritte allein nicht genügen. Wie Watson berichtet, hat ChatGPT bei der Darstellung von Menschen mit Behinderung zwar spürbare [&#8230;]</p>
<p>Der Beitrag <a href="https://hghahn.de/chatgpt-macht-fortschritte-bei-der-darstellung-von-menschen-mit-behinderung-aber-diskriminierung-bleibt/">ChatGPT macht Fortschritte bei der Darstellung von Menschen mit Behinderung – aber Diskriminierung bleibt</a> erschien zuerst auf <a href="https://hghahn.de">Helmut Hahn Datenschutz und IT-Seminare</a>.</p>
]]></description>
		
		
		
			</item>
		<item>
		<title>Diskriminierung durch Künstliche Intelligenz – Wie KI Schönheitsideale verzerrt</title>
		<link>https://hghahn.de/diskriminierung-durch-kuenstliche-intelligenz-wie-ki-schoenheitsideale-verzerrt/</link>
		
		<dc:creator><![CDATA[Helmut Hahn]]></dc:creator>
		<pubDate>Sun, 26 Oct 2025 10:46:52 +0000</pubDate>
				<category><![CDATA[Datensicherheit]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[prompt]]></category>
		<guid isPermaLink="false">https://hghahn.de/diskriminierung-durch-kuenstliche-intelligenz-wie-ki-schoenheitsideale-verzerrt/</guid>

					<description><![CDATA[<p>Diskriminierung durch Künstliche Intelligenz – Wie KI Schönheitsideale verzerrt Künstliche Intelligenz prägt zunehmend die visuelle Kommunikation – von Social-Media-Bildern bis zu Werbekampagnen. Doch laut einer aktuellen Analyse der 8com GmbH &#038; Co. KG in Kooperation mit der Initiative SpardaSurfSafe zeigt sich ein besorgniserregendes Muster: KI-Bildgeneratoren wie DALL·E oder Midjourney erzeugen fast ausschließlich Darstellungen, die westliche [&#8230;]</p>
<p>Der Beitrag <a href="https://hghahn.de/diskriminierung-durch-kuenstliche-intelligenz-wie-ki-schoenheitsideale-verzerrt/">Diskriminierung durch Künstliche Intelligenz – Wie KI Schönheitsideale verzerrt</a> erschien zuerst auf <a href="https://hghahn.de">Helmut Hahn Datenschutz und IT-Seminare</a>.</p>
]]></description>
		
		
		
			</item>
		<item>
		<title>Warum KI Vergangenes vorhersagt und Diskriminierung fortschreibt</title>
		<link>https://hghahn.de/warum-ki-vergangenes-vorhersagt-und-diskriminierung-fortschreibt/</link>
		
		<dc:creator><![CDATA[Helmut Hahn]]></dc:creator>
		<pubDate>Sun, 26 Oct 2025 10:26:00 +0000</pubDate>
				<category><![CDATA[Diskriminierung]]></category>
		<guid isPermaLink="false">https://hghahn.de/warum-ki-vergangenes-vorhersagt-und-diskriminierung-fortschreibt/</guid>

					<description><![CDATA[<p>Warum KI Vergangenes vorhersagt und Diskriminierung fortschreibt Automatisierte Entscheidungssysteme (ADM-Systeme) gelten oft als objektiv und effizient. Doch wie eine aktuelle Analyse der Friedrich-Ebert-Stiftung (FES) zeigt, reproduzieren viele KI-Anwendungen unbewusst gesellschaftliche Vorurteile. Autorin Katharina Mosene beschreibt, dass KI auf historischen Daten basiert, die selbst soziale Ungleichheiten enthalten. So wird aus der Vergangenheit ein Muster, das die [&#8230;]</p>
<p>Der Beitrag <a href="https://hghahn.de/warum-ki-vergangenes-vorhersagt-und-diskriminierung-fortschreibt/">Warum KI Vergangenes vorhersagt und Diskriminierung fortschreibt</a> erschien zuerst auf <a href="https://hghahn.de">Helmut Hahn Datenschutz und IT-Seminare</a>.</p>
]]></description>
		
		
		
			</item>
		<item>
		<title>KI im Recruiting: Warum Maschinen Bewerbungen oft ungerecht bewerten</title>
		<link>https://hghahn.de/ki-im-recruiting-warum-maschinen-bewerbungen-oft-ungerecht-bewerten/</link>
		
		<dc:creator><![CDATA[Helmut Hahn]]></dc:creator>
		<pubDate>Sun, 26 Oct 2025 10:17:50 +0000</pubDate>
				<category><![CDATA[Arbeitswelt]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[Programmierung]]></category>
		<guid isPermaLink="false">https://hghahn.de/ki-im-recruiting-warum-maschinen-bewerbungen-oft-ungerecht-bewerten/</guid>

					<description><![CDATA[<p>KI im Recruiting: Warum Maschinen Bewerbungen oft ungerecht bewerten Eine internationale Forschungsgruppe des EU-Projekts FINDHR (Fairness and Intersectional Non-Discrimination in Human Recommendation) hat untersucht, wie KI-gesteuerte Systeme Bewerbungen analysieren und selektieren. Das Ergebnis: Automatisierte Auswahlverfahren können Diskriminierung nicht nur reproduzieren, sondern auch verstärken. Bewerbungen mit standardisiertem Aufbau und maschinenlesbaren Strukturen werden bevorzugt – kreative oder [&#8230;]</p>
<p>Der Beitrag <a href="https://hghahn.de/ki-im-recruiting-warum-maschinen-bewerbungen-oft-ungerecht-bewerten/">KI im Recruiting: Warum Maschinen Bewerbungen oft ungerecht bewerten</a> erschien zuerst auf <a href="https://hghahn.de">Helmut Hahn Datenschutz und IT-Seminare</a>.</p>
]]></description>
		
		
		
			</item>
		<item>
		<title>Studie: KI diskriminiert Ostdeutsche – Forscher warnen vor unbewusster Voreingenommenheit</title>
		<link>https://hghahn.de/studie-ki-diskriminiert-ostdeutsche-forscher-warnen-vor-unbewusster-voreingenommenheit/</link>
		
		<dc:creator><![CDATA[Helmut Hahn]]></dc:creator>
		<pubDate>Sun, 26 Oct 2025 10:13:29 +0000</pubDate>
				<category><![CDATA[Arbeitswelt]]></category>
		<category><![CDATA[Diskriminierung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[LLM]]></category>
		<category><![CDATA[Programmierung]]></category>
		<category><![CDATA[prompt]]></category>
		<guid isPermaLink="false">https://hghahn.de/studie-ki-diskriminiert-ostdeutsche-forscher-warnen-vor-unbewusster-voreingenommenheit/</guid>

					<description><![CDATA[<p>Studie: KI diskriminiert Ostdeutsche – Forscher warnen vor unbewusster Voreingenommenheit Eine aktuelle Untersuchung der Hochschule München hat gezeigt, dass Sprachmodelle wie ChatGPT oder das deutschsprachige LeoLM Menschen aus ostdeutschen Bundesländern systematisch schlechter bewerten – unabhängig davon, ob es sich um positive, neutrale oder negative Eigenschaften handelt. Die Forscherinnen Prof. Anna Kruspe und Dr. Mila Stillman [&#8230;]</p>
<p>Der Beitrag <a href="https://hghahn.de/studie-ki-diskriminiert-ostdeutsche-forscher-warnen-vor-unbewusster-voreingenommenheit/">Studie: KI diskriminiert Ostdeutsche – Forscher warnen vor unbewusster Voreingenommenheit</a> erschien zuerst auf <a href="https://hghahn.de">Helmut Hahn Datenschutz und IT-Seminare</a>.</p>
]]></description>
		
		
		
			</item>
	</channel>
</rss>
