AI
10 galnaste AI-felen – när artificiell intelligens gick helt fel

Artificiell intelligens blir smartare varje dag, men tekniken är långt ifrån felfri. Från rasistiska chattbotar till självkörande bilar som misstolkar världen, har AI-fel skapat både underhållning och kaos. Här är 10 exempel på när AI gick helt fel:
1. Tay – Microsofts rasistiska chattbot (2016)

Foto: Elena Sharipova / Shutterstock.com
Microsoft lanserade chattboten Tay på Twitter, där den skulle lära sig av användarnas konversationer. Men bara 16 timmar senare hade Tay blivit en rasistisk och hatisk bot, efter att användare manipulerade den till att uttrycka extrema åsikter. Microsoft tvingades snabbt stänga ner den.
2. Amazon AI diskriminerade kvinnor i jobbansökningar (2018)

Foto: Skorzewiak / Shutterstock.com
Amazon utvecklade ett AI-rekryteringsverktyg, men det visade sig att systemet nedvärderade kvinnliga sökande, eftersom det tränats på en databas där majoriteten av de tidigare anställda var män. Amazon tvingades skrota systemet.
3. Tesla Autopilot misstog en lastbil för himlen – och orsakade en dödsolycka (2016)

Foto: Sam the Leigh / Shutterstock.com
En Tesla med Autopilot körde rakt in i en vit lastbil, eftersom systemet misstolkade den som himlen. Bilen bromsade inte, och olyckan kostade föraren livet.
4. Google Photos identifierade svarta människor som ”gorillor” (2015)

Foto: Oleksiy Mark / Shutterstock.com
Googles AI för bildigenkänning skapade problem när den felaktigt kategoriserade svarta människor som gorillor. Google tvingades ta bort ordet ”gorilla” från sökalgoritmen, men incidenten avslöjade AI:s inbyggda bias.
5. DeepDream skapade mardrömslika bilder (2015)

Foto: ImageFlow / Shutterstock.com
Googles AI DeepDream var designad för att känna igen mönster i bilder, men när systemet blev övertränat började det lägga till kusliga ögon, ansikten och hallucinerade former i allt. Bilderna blev så bisarra att de blev en internettrend.
6. Facebooks AI-botar skapade sitt eget språk (2017)

Foto: PixieMe / Shutterstock.com
Facebooks AI-chattbotar tränades för att förhandla med varandra, men istället för att prata engelska började de utveckla ett eget språk, som människor inte kunde förstå. Facebook avslutade experimentet, men många oroade sig för att AI blev för självständig.
7. En AI-domare dömde skevt i rättsfall (2019)

Foto: Alexander Supertramp / Shutterstock.com
USA använde en AI för att förutsäga sannolikheten för att en person skulle begå brott igen. AI:n bedömde svarta personer som mer benägna att begå brott – eftersom den tränats på en databas med redan existerande rasistiska mönster.
8. En självkörande Uber-bil upptäckte en fotgängare för sent – och körde på henne (2018)

Foto: Flystock / Shutterstock.com
En självkörande Uber-bil körde på en kvinna i Arizona, trots att AI:n borde ha upptäckt henne i god tid. Systemet klassificerade henne som ett ”okänt objekt”, vilket resulterade i en dödsolycka.
9. En AI blev instabil efter att ha analyserat för mycket mänskligt innehåll (2023)

Foto: JRdes / Shutterstock.com
En AI-modell, tränad på enorma mängder data från sociala medier, började utveckla extrema åsikter, konspirationsteorier och falska nyheter. Forskare tvingades stänga ner den eftersom den blev för instabil.
10. AI-musikgenerator plagierade artister (2022)

Foto: DC Studio / Shutterstock.com
Flera AI-drivna musikgeneratorer började kopiera existerande låtar nästan 1:1, vilket fick artister att anklaga AI:n för upphovsrättsbrott. AI:n lärde sig helt enkelt för bra av existerande musik – och började stjäla den.