В последние дни социальные сети и СМИ буквально взорвались от сообщений и новостных заметок, суть которых сводилась к следующему: дескать, в Facebook тестировали новых ботов, которые в ходе тренировок внезапно стали общаться на изобретенном ими новом, никому из людей не понятном языке, и в этот момент разработчики сильно-сильно испугались разбушевавшегося искусственного интеллекта и отключили «разговаривающие» между собой программы.
Сразу же заговорили о Скайнете, некоторые пошли прятать одежду и мотоцикл и искать в телефонных книгах Сару Коннор. Но так ли все страшно? Что же на самом деле произошло? Ведь действительно, в разговоре типа:
Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
– вроде бы все слова понятны, но смысла в них нет. А боты – общаются. Так что же случилось? Действительно они изобрели свой язык – и их пришлось стереть?
Ответ на первый вопрос – да. Но никто их не стирал, да и то, что программы «изобрели» свой новый язык – тоже не новость, да и не страшно все это. Что на самом деле тестировали в Facebook? То, что делают по всему миру – в Сбербанке, в Google, да почти в каждой крупной корпорации: пытаются создать программы (чат-боты, AI-агенты), которые смогут адекватно общаться с человеком, помогая ему в решении его проблем, возникающих при пользовании услугами этой компании. Эти программы действительно построены по принципу искусственного интеллекта и используют так называемые нейронные сети, но это совершенно не означает, что они могут думать и что у них есть хоть какое-то подобие мозга. Просто они умеют отвечать на вопросы, будучи натренированы на огромных массивах данных.
Иногда программы «тренируют» на больших текстовых массивах (можно, например, «залить» в нейросеть «Критику чистого разума» – и попробовать поспрашивать ее по Канту), иногда – заставляют друг с другом говорить. И то, что в ходе этих тренировок нейросети «создают» язык, который позволяет ботам экономнее общаться друг с другом – не новость. Именно поэтому и приостановили эксперимент, потому что конечная цель – научить бота общаться с человеком.
Научная статья о первых итогах вышла в июне, но потом ее нашли британские журналисты… Таблоид Sun, например… И понеслось. Разумеется, ученые были недовольны и даже обвинили СМИ в кликбейте (термин, описывающий веб-контент, целью которого является получение дохода от онлайн-рекламы, особенно в ущерб качеству или точности информации. – Ред.) и безответственности.
Вот что говорит об этом один из специалистов группы искусственного интеллекта в Facebook Друв Батра: «Хотя идея того, что боты, основанные на искусственном интеллекте (АI-агенты), изобретают свой собственный язык, может звучать тревожной и неожиданной для людей за пределами нашей научной области, это хорошо проработанная суб-область в развитии искусственного интеллекта, с публикациями, вышедшими десятилетия назад.
Проще говоря, агенты в какой-либо среде, пытаясь решить задачу, часто находят нелогичные способы, чтобы максимизировать успех.
То, что мы взяли паузу для анализа и изменения параметров эксперимента, не совпадает с «отключить» или «убить» искусственный интеллект. Если бы это было так, каждый исследователь в области искусственного интеллекта убивал бы его каждый раз, выключая свой компьютер».
Ему вторит российский специалист и популяризатор искусственного интеллекта Сергей Марков: «“Изобретение нового языка” – это ни разу не революционное достижение для машинного обучения. При должным образом сформулированных условиях, модели машинного обучения могут изобретать для вас новые языки пачками. Даже языки с заданными свойствами, квазиоптимальные по какому-нибудь признаку или их совокупности. На сегодняшний день это красивая, но весьма рутинная задача. […]
Товарищи научные журналисты. Я понимаю, конечно, что кликбейт и все такое. Но вы поймите, что вас прочитают полоумные законодатели, и будет у нас очередное запрещенное направление исследований. Все так любят вспоминать генетику и кибернетику (которые, справедливости ради, никто, в общем-то, не запрещал), ну хоть чему-то должна история учить все же? Или нет?»
Алексей Паевский