World Wide Web

Twitterbot Tay verandert binnen 24 uur in racistische eikel

Artificial Intelligence (AI) is wat mij betreft de toekomst. Steeds vaker komt de techniek met ontwikkeling op de proppen die we eigenlijk alleen maar kennen van film en kan er al veel meer dan wij tot nu toe denken. Ook Microsoft is lekker aan het experimenteren met AI. Vorige week lanceerde ze namelijk ‘Tay’, een kunstmatige Twitterbot die leert door ermee te communiceren. Binnen 24 uur besloot Microsoft om Tay toch maar even de mond te snoeren, want het werkte eigenlijk wel heel er goed, zeg maar gerust te goed.

In nog geen 24 uur transformeerde Tay van een onschuldige Twitterbot in een racistische en anti feministische bot. Op basis van de input van andere Twitteraars, zowel via vermeldingen als via directe berichten, ging Tay in gesprek met de mensen. Echter door de bot informatie te voeden die van kwetsbare aard is gaf hij natuurlijk gewoon in dezelfde richting antwoord. Ondanks de AI van Tay was hij nog niet helemaal in staat om ethiek mee te rekenen in de reacties.

microsoft Tay AI twitterbot

Inmiddels zijn de foute tweets verwijderd door Microsoft en worden er aanpassingen doorgevoerd aan het algoritme van Tay. De bot is naast Twitter ook actief op Snapchat. Op dit moment is hij echter even buiten werking gezet maar naar verwachting gaat Tay straks gewoon weer het gesprek met je aan. Tot dusver toe is mijn vertrouwen in AI in ieder geval niet minder geworden.

Martijn

Martijn is naast eigenaar van tech365 ook werkzaam als IT Professional. Zijn passies zijn gadgets, fotografie en alles wat met automotive te maken heeft. Je kunt hem ook vinden als blogger op wielerblog www.lifebehindbars.nl

Gerelateerde berichten

Geef een reactie

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

Back to top button