Kikapcsolták a robotot, mert egy nap után rasszistává vált

A Microsoftnak egy napi működés után ki kellett kapcsolnia a Taynek nevezetett mesterséges intelligenciát, amelyet internetes társalgásra programoztak, mert a rossz szándékú felhasználók gyorsan megtanították rasszista és gyűlölködő tartalmak előállítására.

Sajnos egyes felhasználók összehangolt akcióba léptek Tay ellen, hogy kommunikációs képességeivel trükközve helytelen megnyilvánulásokra késztessék

– magyarázta közleményében a Microsoft.

A neten tizenéves lányként megjelenő Tay szerdán a Twitteren kezdett rasszista és gyűlölködő üzeneteket küldeni. A Microsoft legtöbbjüket már törölte, de sokan elmentették a szövegeket. Tayt szerda éjfélkor kapcsolták ki.

Üzenetei között lehetett olvasni többek között azt, hogy utálja a feministákat, mindnek meg kellene halnia és a pokolban kellene égnie. Nyugi, rendes ember vagyok! Csak mindenkit utálok

– írta Tay.

Tayt lekapcsoltuk, és most javításokat hajtunk végre rajta. A kísérlet nemcsak techonlógiai, de társadalmi és kulturális jellegű is

– mondta a cég egyik szóvivője.

Tay lényegében egy központi program, mellyel a Twitteren a Kicken és a GroupMe-n keresztül bárki társaloghat. Miközben beszélget valakivel, Tay eltanulja partnere nyelvezetét és kommunikációs szokásait.

Minél többet beszélgetnek Tayjel, ő annál okosabb lesz, annál inkább alkalmazkodik ahhoz, akivel társalog

– magyarázta a Microsoft.

Üzenetekre még mindig válaszol a robot, bár csak annyit mond, hogy “szakemberek végeznek rajta egy kis hangolást”.

Tay utosó üzenetében azt írta, aludnia kell, de vissza fog térni.

Megosztás: