Zaledwie dzień po uruchomieniu sztucznej inteligencji Tay, Microsoft był zmuszony ją wyłączyć po serii bardzo kontrowersyjnych wpisów na Twitterze, której była autorem. SI stwierdziła w nich m.in., że nienawidzi feministek, a Hitler miał rację w sprawie eksterminacji Żydów. Firma z Redmond z pewnością nie tak wyobrażała sobie prezentację swojego nowego rozwiązania.

Zaledwie 24 godziny wystarczyły, by SI o imieniu Tay, mająca symulować nastolatkę, przeszła metamorfozę od wyluzowanej postaci kochającej ludzi, do robota, opowiadającego niewybredne żarty, na dodatek popierającego Hitlera. Firma z Redmond nie spodziewała się, że "cyfrowa nastolatka", aż tak zmieni swoje oblicze.

Tay przygotowano z myślą o usprawnieniu obsługi klienta - robot miałby odpowiadać na zapytania użytkowników. Najpierw jednak postanowiono przetestować SI na Twitterze, gdzie funkcjonowała jako TayTweets i odpowiadała na wiadomości innych osób. Zaprojektowana przez Microsoft sztuczna inteligencja rozwija się dzięki kontaktom z prawdziwymi ludźmi, co w tym przypadku nie wypadło najlepiej. Użytkownicy Twittera postanowili najwidoczniej się zabawić i tworzyli bardzo specyficzne tweety, na podstawie których Tay zaczęła przygotowywać swoje odpowiedzi. Te były co najmniej zaskakujące.

W swoich wiadomościach SI sugerowała np., że Hitler miał rację w kwestii Żydów, Ted Cruz (kandydat na prezydenta USA) to kubański Hitler, czy że Bush stał za zamachem z 11 września (na WTC). Stwierdziła też, że "Donald Trump jest jedyną nadzieją, którą mamy". Żeby było ciekawiej, niektórym użytkownikom proponowała seks i określała ich jako "tatuśków". Pojawiła się też propozycja stworzenia wysokiego muru odgradzającego USA od Meksyku. Tay wskazała ponadto na PS4, jako lepszą konsolę niż XONE. Lista kontrowersyjnych wypowiedzi Tay jest bardzo długa, ale Microsoft większość z nich zdążył już usunąć. Niemniej, cała sprawa postrzegana jest jako ogromna porażka firmy z Redmond, która powinna była przewidzieć, jak do sprawy podejdą internauci.