ЧАТ БОТЫ Tay (Microsoft, 2016) Злополучная попытка Microsoft...

ЧАТ БОТЫ

Tay (Microsoft, 2016)

Злополучная попытка Microsoft создать «приветливого» ИИ. Бот должен был обучаться на сообщениях пользователей Twitter и общаться в манере 19-летней американки. Через сутки после запуска бот превратился в отрицающего Холокост расиста, и его быстро отключили. Tay может показаться нелепым, но именно так следующее поколение самообучающихся ботов захочет выглядеть в наших глазах, чтобы мы недооценили их опасность.

Chat Bot Club (Ирэн Чанг (Irene Chang), 2016)

Этот бот был написан в мае этого года в Нью-Йорке, во время проводившегося TechCrunch хакатона Disrupt Hackathon. Chat Bot Club позволяет создать бота для замены себя, потому что иногда общение с людьми — это бремя.

Бот работает на Cisco Spark и IBM Watson. Он способен повторять стилистику и грамматические особенности ваших прошлых сообщений, его можно оставить отвечать на сообщения, когда вы заняты.

Тем временем база пользователей бота растёт, как и его способность имитировать практически любого человека на Земле.
0
У записи 1 лайков,
0 репостов,
63 просмотров.
Эту запись оставил(а) на своей стене Виктор Чмутов

Понравилось следующим людям