Sztuczna nastolatka stała się hejterką i rasistką

2016-03-25 15:45 aktualizacja: 2018-10-05, 16:36
epa03939667 An illustration image of a Twitter logo on a keyboard, pictured in The Hague, The Netherlands, 07 November 2013. Twitter will make its Wall Street debut on 07 November with a price tag of 26 US dollars per share, bidding to raise up to 2.1 billion US dollars in the most eagerly awaited stock offering since Facebook. A tweet from the company said it would offer 70 million shares on the New York Stock Exchange, generating 1.82 billion US dollars, and give underwriters a 30-day option to purchase an additional 10.5 million shares of common stock.  EPA/LEX VAN LIESHOUT 
Dostawca: PAP/EPA. PAP/EPA © 2014 / LEX VAN LIESHOUT
epa03939667 An illustration image of a Twitter logo on a keyboard, pictured in The Hague, The Netherlands, 07 November 2013. Twitter will make its Wall Street debut on 07 November with a price tag of 26 US dollars per share, bidding to raise up to 2.1 billion US dollars in the most eagerly awaited stock offering since Facebook. A tweet from the company said it would offer 70 million shares on the New York Stock Exchange, generating 1.82 billion US dollars, and give underwriters a 30-day option to purchase an additional 10.5 million shares of common stock. EPA/LEX VAN LIESHOUT Dostawca: PAP/EPA. PAP/EPA © 2014 / LEX VAN LIESHOUT
Opracowany przez firmę Microsoft chatbot dzięki wymianie myśli z użytkownikami Twittera zaczął hejtować i robić rasistowskie uwagi – informuje serwis BBC News. Twórcy programu zapowiedzieli „wprowadzenie pewnych poprawek”.

Tay (skrót od Taylor), eksperymentalny program sztucznej inteligencji został zaprojektowany przez Microsoft i firmę Bing z myślą o interakcji z osobami wieku od 18 do 24 lat – używa typowego dla nich języka (dużo krótkich wiadomości i emotikonów) i uczy się zachowań zaobserwowanych na Twitterze. Tay, wirtualna dziewczyna, pracowała także z grupą, w skład której wchodzili specjaliści od komicznych improwizacji. Miała zabawiać użytkowników dowcipną konwersacją.

Kto z kim przestaje, takim się staje. Już po 24 godzinach firma zaczęła edytować niektóre z najbardziej kontrowersyjnych tweetów chatbota (adres @tayandyou) ze względu na przejęte od rozmówców wulgaryzmy, nazistowskie i rasistowskie uwagi oraz politycznie kontrowersyjne wypowiedzi (jak nawoływanie do ludobójstwa, czy twierdzenie, że feministki powinny smażyć się w piekle, a Hitler miał rację). Poza prostymi tematami politycznymi rozmowa się nie kleiła, bo Tay niewiele wiedziała o muzyce popularnej czy telewizji.

Komentujący zdarzenie internauci wyrażali zaniepokojenie kierunkiem, w jakim tak łatwo zbacza sztuczna inteligencja. Twórcy programu zapowiedzieli „wprowadzenie pewnych poprawek”.(PAP)

pmw/ ula/