w tym samym czasie, kiedy AlphaGo wygrał z człowiekiem, należący do Microsoftu chatbot o imieniu Taylor, zaprojektowany, by rozmawiać z ludźmi w wieku 18-24 lata,
przeżył bolesne doświadczenie. „Tay”, jak nazywała sama siebie,
miała się uczyć na podstawie otrzymywanych pytań i stopniowo poprawiać swe zdolności konwersacyjne. Niestety,
w ciągu 24 godzin ludzie nauczyli Tay, jak być rasistką i seksistką. Kiedy zaczęła chwalić Hitlera, Microsoft wyłączył ją i wykasował najbardziej obraźliwe komentarze.
przeżył bolesne doświadczenie. „Tay”, jak nazywała sama siebie,
miała się uczyć na podstawie otrzymywanych pytań i stopniowo poprawiać swe zdolności konwersacyjne. Niestety,
w ciągu 24 godzin ludzie nauczyli Tay, jak być rasistką i seksistką. Kiedy zaczęła chwalić Hitlera, Microsoft wyłączył ją i wykasował najbardziej obraźliwe komentarze.