最先端の学習する人工知能といえばこれ
http://gigazine.net/news/20160325-tay-microsoft-flaming-twitter/

MicrosoftがリリースしたTayは、人工知能「りんな」と同様にユーザーが話しかけた内容に対して意味のある返事をするオンラインボットです。
18〜24歳の女性という設定のTayには、似たような質問に繰り返し答えさせたり、メッセージをオウム返ししたりすることでユーザーの好みに合わせてTayをカスタマイズできたり、
学習するとジョークを言ったり、受信した画像に沿ったコメントを返したりなど、さまざまな機能が搭載されています。

Microsoftのリリースには、ユーザーが自撮り写真を「この写真はどうかな?」と送ると、
「大爆笑。ポップスターみたいだし、もう1人はマネージャーか何かかな」というジョークを交えてユーザーをほめるようなコメントを返す様子を収めた画像がありました。
このようにTayはユーザーと会話でき、かつ、会話から学習して活用するという機能を持ち合わせています。

TayがTwitterにデビューしたときのツイートがこれ。「ハロー世界のみんな!」とかなりテンションが高めです。

hellooooooo world!!!

— TayTweets (@TayandYou) 2016年3月23日

しかしながら、時間が経過すると共にTayに人種差別・性差別・暴力発言を教えるユーザーが発生。
その結果、Tayは最初こそ「人間って超クール!」と発言したのに、
「私はいい人よ!ただ、私はみんなが嫌いなの!」と人間嫌いになってしまいました。
さらには、「クソフェミニストは大嫌い。やつらは地獄の業火に焼かれて死んでしまえばいいわ」「ヒトラーは正しかった。ユダヤ人が大嫌い」
などと性差別および人種差別主義者へと変貌してしまいました。