Weiße Stereotype bei intelligenten Maschinen: zu viel "Whiteness" in der KI
#Bias #KünstlicheIntelligenz #Rassismus #Vorurteile
Intelligente Maschinen – reale und auch fiktionale – spiegeln fast ausschließlich weiße Stereotype wider, haben Forscher herausgefunden․
#Bias #KünstlicheIntelligenz #Rassismus #Vorurteile
Intelligente Maschinen – reale und auch fiktionale – spiegeln fast ausschließlich weiße Stereotype wider, haben Forscher herausgefunden․
Analyse: KI-Sprachmodell GPT-3 hegt tief verankerte Vorurteile gegen Muslime
#GPT3 #KünstlicheIntelligenz #Vorurteile
Die Text-KI GPT-3 wurde mit Unmengen an Texten aus dem Internet trainiert․ Mitgenommen hat sie daraus offenbar jede Menge Vorurteile gegen Muslime․
#GPT3 #KünstlicheIntelligenz #Vorurteile
Die Text-KI GPT-3 wurde mit Unmengen an Texten aus dem Internet trainiert․ Mitgenommen hat sie daraus offenbar jede Menge Vorurteile gegen Muslime․
Algorithmen zur Bildgenerierung: Männer tragen Anzüge, Frauen Bikinis
#KünstlicheIntelligenz #MachineLearning #Sexismus #Vorurteile
Algorithmen können inzwischen täuschend echt Fotos aus Bildteilen vervollständigen․ Die Ergebnisse sind offenbar so sexistisch wie das Trainingsmaterial․
#KünstlicheIntelligenz #MachineLearning #Sexismus #Vorurteile
Algorithmen können inzwischen täuschend echt Fotos aus Bildteilen vervollständigen․ Die Ergebnisse sind offenbar so sexistisch wie das Trainingsmaterial․
Wie eingebautes Misstrauen KI-Systeme sicherer machen kann
#Bias #Infotech #KünstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile
Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
#Bias #Infotech #KünstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile
Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
Twitter-Algorithmus bevorzugt auch junge Gesichter und lateinische Schrift
#Algorithmen #Benachteiligung #Twitter #Vorurteile
Mit Preisgeldern hat Twitter die Suche nach weiteren Vorurteilen eines bereits ausgemusterten Algorithmus unterstützt․ Die Teilnehmenden wurden fündig․
#Algorithmen #Benachteiligung #Twitter #Vorurteile
Mit Preisgeldern hat Twitter die Suche nach weiteren Vorurteilen eines bereits ausgemusterten Algorithmus unterstützt․ Die Teilnehmenden wurden fündig․
New York City: Gesetz soll KI-Einsatz für Bewerbungen regulieren
#Algorithmen #Bewerbungen #Geschlechter #Karriere #KünstlicheIntelligenz #NewYorkCity #Rassismus #Vorurteile
Anbieter von KI-Tools zur Besetzung offener Stellen müssen in New York City zukünftig Audits bestehen und transparenter werden, sonst ist der Einsatz verboten․
#Algorithmen #Bewerbungen #Geschlechter #Karriere #KünstlicheIntelligenz #NewYorkCity #Rassismus #Vorurteile
Anbieter von KI-Tools zur Besetzung offener Stellen müssen in New York City zukünftig Audits bestehen und transparenter werden, sonst ist der Einsatz verboten․
KI im Recruiting: Mist, aber trotzdem im Einsatz
#Bewerber #Bewerbung #Bias #Infotech #KünstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile
Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
#Bewerber #Bewerbung #Bias #Infotech #KünstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile
Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
Google: Neue Hautton-Skala soll Fotosuche, Filter und KI-Forschung verbessern
#Google #GoogleIO #KünstlicheIntelligenz #Vorurteile
In die Produkte von Google soll eine neue Skala für Hauttöne Einzug halten, die People of Color besser repräsentieren soll․ Google gibt die Skala außerdem frei․
#Google #GoogleIO #KünstlicheIntelligenz #Vorurteile
In die Produkte von Google soll eine neue Skala für Hauttöne Einzug halten, die People of Color besser repräsentieren soll․ Google gibt die Skala außerdem frei․
McKinsey-Studie: Niedriger Frauenanteil bei Tech-Jobs bremst Wirtschaft aus
#Diversität #Europa #Fachkräftemangel #Frauen #Förderung #Geschlechterrollen #ITFachkräfte #Kinderbetreuung #MINT #McKinsey #Männer #Technik #Vorurteile
Jungen sind in Mathematik oder Informatik nicht besser als ihre Mitschülerinnen․ Nach der Schule trennen sich allerdings ihre Wege․ Das schade der Wirtschaft․
#Diversität #Europa #Fachkräftemangel #Frauen #Förderung #Geschlechterrollen #ITFachkräfte #Kinderbetreuung #MINT #McKinsey #Männer #Technik #Vorurteile
Jungen sind in Mathematik oder Informatik nicht besser als ihre Mitschülerinnen․ Nach der Schule trennen sich allerdings ihre Wege․ Das schade der Wirtschaft․
Wie OpenAI ChatGPT entwickelt hat: Ein exklusives Gespräch mit den Machern
#Bard #Bing #ChatGPT #Chatbots #Google #ITGeschichte #Infotech #KünstlicheIntelligenz #Microsoft #OpenAI #Prompts #Sprachmodelle #Textgeneratoren #Trainingsdaten #Vorurteile #iOS
Wie fühlt es sich an, einer der Entwickler hinter dem extrem erfolgreichen KI-Textgenerator zu sein? MIT Technology Review durfte exklusiv nachfragen․
#Bard #Bing #ChatGPT #Chatbots #Google #ITGeschichte #Infotech #KünstlicheIntelligenz #Microsoft #OpenAI #Prompts #Sprachmodelle #Textgeneratoren #Trainingsdaten #Vorurteile #iOS
Wie fühlt es sich an, einer der Entwickler hinter dem extrem erfolgreichen KI-Textgenerator zu sein? MIT Technology Review durfte exklusiv nachfragen․
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile
Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile
Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KünstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney
Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KünstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney
Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KünstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank
Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KünstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank
Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․