heise online Ticker
235 subscribers
72.7K links
News rund um IT und darüber hinaus

Powered by @DerNewsChannel
Download Telegram
Weight Watchers App: US-Gericht ordnet Zerstörung von KI-Algorithmen an
#Algorithmen #Datenschutz #FederalTradeCommission #Jugendschutz #KünstlicheIntelligenz #Regulierung #Trainingsdaten #USA

WW International (früher Weight Watchers) muss nicht nur illegal erhobene Daten, sondern auch damit trainierte Algorithmen vernichten․
Fitnesstracker: Strava stellt weiter Militärangehörige und Geheimdienste bloß
#Datenschutz #Militär #SocialMedia #Strava #Trainingsdaten

Eine seit über vier Jahren bekannte Vorgehensweise zur Einsichtnahme in fremde Strava-Daten funktioniert weiter․ Betroffen ist Israels Militär und der Mossad․
Crowdworking: Ständig bereit für 90 Cent Stundenlohn
#AmazonMechanicalTurk #Appen #Arbeitsbedingungen #Clickworker #Clickworking #Crowdworking #DeepLearning #Infotech #KünstlicheIntelligenz #MachineLearning #PlattformÖkonomie #Remotask #ScaleAI #Sprachverarbeitung #TechnologyReview #Trainingsdaten #Venezuela #autonomesFahren

Wirtschaftskrisen wie in Venezuela führen zu einer neuen Form digitaler Ausbeutung im Dienste der Künstlichen Intelligenz․
KI-Modelle: Es droht ein Mangel an Trainingsdaten
#Infotech #KISysteme #KünstlicheIntelligenz #Qualität #Sprachmodelle #Trainingsdaten

Es gibt zwei Qualitätsstufen von Trainingsdaten für Sprachmodelle: elaborierte Texte oder Nutzerkommentare․ Erstere könnten bald knapp werden․
Wie OpenAI ChatGPT entwickelt hat: Ein exklusives Gespräch mit den Machern
#Bard #Bing #ChatGPT #Chatbots #Google #ITGeschichte #Infotech #KünstlicheIntelligenz #Microsoft #OpenAI #Prompts #Sprachmodelle #Textgeneratoren #Trainingsdaten #Vorurteile #iOS

Wie fühlt es sich an, einer der Entwickler hinter dem extrem erfolgreichen KI-Textgenerator zu sein? MIT Technology Review durfte exklusiv nachfragen․
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile

Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․