Szukaj na tym blogu

piątek, 15 kwietnia 2016

w tym samym czasie, kiedy AlphaGo wygrał z człowiekiem, należący do Microsoftu chatbot o imieniu Taylor, zaprojektowany, by rozmawiać z ludźmi w wieku 18-24 lata, 
przeżył bolesne doświadczenie. „Tay”, jak nazywała sama siebie, 
miała się uczyć na podstawie otrzymywanych pytań i stopniowo poprawiać swe zdolności konwersacyjne. Niestety, 
w ciągu 24 godzin ludzie nauczyli Tay, jak być rasistką i seksistką. Kiedy zaczęła chwalić Hitlera, Microsoft wyłączył ją i wykasował najbardziej obraźliwe komentarze.