Искусственный интеллект. Что стоит знать о наступающей эпохе разумных машин 9785171156084

Что такое искусственный интеллект и как его создать? Как машины учатся и обыгрывают людей? Могут ли они создавать произв

206 21 4MB

Russian Pages 352 [284] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Искусственный интеллект. Что стоит знать о наступающей эпохе разумных машин
 9785171156084

Table of contents :
Авторы-составители
Авторы научно-популярных статей
Введение
1. По нашему подобию
Что такое искусственный интеллект?
Алан Тьюринг и расцвет компьютерных вычислений
Неуверенный старт ИИ
Смерть ИИ
Шкала развития ИИ
2. Машины, которые учатся
Не такие, как мы
Пища для размышлений: подход, основанный на данных
Новый способ мышления
Высший образ мышления
Телесный интеллект
За пределами теста Тьюринга
3. Все, что вы можете делать
В игре: ИИ играет в го, покер и многое другое
Научиться видеть и слышать
Ораторские приемы: ИИ учится спорить
4. Вопросы жизни и смерти
Беспилотные автомобили
Автомобили с совестью
Врачи с искусственным разумом
Роботы-убийцы
5. В неизвестность
Эвристические машины
Подтверждение гипотез: программа для решения математических задач
6. Машины, которые создают
Боты-сценаристы: ИИ-рассказчики
Виртуальные ценители искусства переопределяют креативность
Художественное развитие ИИ
7. Реальные риски ИИ
Забудьте о Skynet: социальные эффекты ИИ
В поисках работы
Никто не главный
8. Унаследуют ли машины Землю?
Расцвет сверхразума
Компьютеры, бросающие вызов логике
Пять причин, почему сингулярности не бывать
Близко ли зима ИИ?
Заключение
50 идей
4 цитаты об искусственном интеллекте
10 интересных ботов в Twitter
4 интересных изобретения ИИ
11 знаковых злодеев ИИ
6 шуток, придуманных компьютером
Еще 6 источников информации об ИИ
9 сценариев краха человечества
Ответы на кроссворд
Глоссарий
Примечания

Citation preview

Искусственный интеллект. Что стоит знать о наступающей эпохе разумных машин

(сост. Элисон Джордж, Дуглас Хэвен)

Machines that Think. Everything You Need to Know about the Coming Age of Artificial Intelligence

© New Scientist, 2017 © Оформление, ООО «Издательство АСТ», 2019

***

Авторы-составители Элисон Джордж, редактор серии Instant Expert для журнала New Scientist. Редактор – Дуглас Хэвен, технологический журналист и консультант New Scientist. Работал главным технологическим редактором в New Scientist и выпускающим редактором в BBC Future Now.

Авторы научно-популярных статей Ник Бостром – директор Института будущего человечества Оксфордского университета и автор книги «Искусственный интеллект. Этапы. Угрозы. Стратегии» (2014). Написал рубрику «Что случится, если ИИ станет умнее нас?» из главы 8. Нелло Кристианини – профессор по искусственному интеллекту в Бристольском университете (Великобритания), а также автор учебников по машинному обучению (в том числе Kernel Methods for Pattern Analysis (2004)). Участвовал в написании глав 1, 2, 3 и 5. Джон Грэм-Камминг – программист, начинающий специалист по криптоанализу и автор книги The Geek Atlas (2009). В 2009 году успешно запустил кампанию по принесению извинений Алану Тьюрингу со стороны правительства Великобритании. Участвовал в написании главы 1. Питер Норвиг – директор по исследованиям в Google и соавтор книги «Искусственный интеллект: современный подход» (1994). Бывший глава Подразделения вычислительной техники в исследовательском центре «Амес» NASA. Участвовал в написании глав 1, 2, 5 и 6. Андерс Сандберг – исследователь Института будущего человечества Оксфордского университета; изучает маловероятные, но существенные риски вследствие внедрения новых технологий. Написал рубрику «Может ли программа страдать?» из главы 8. Тоби Уолш – профессор искусственного интеллекта в Университете Нового Южного Уэльса (Австралия). Автор книг «Оно живое! Искусственный интеллект от умного пианино до роботовубийц» (2017) и «2062: время машин» (2018). Написал параграф «Пять причин, почему сингулярности не бывать».

Также благодарим следующих авторов:

Салли Ади, Гилад Амит, Джейкоб Арон, Крис Баранюк, Кэтрин де Ланге, Лиз Эльзе, Найл Ферт, Ник Флеминг, Аманда Гефтер, Дуглас Хэвен, Хэл Ходсон, Вирджиния Хьюз, Кирстин Кидд, Пол Маркс, Джастин Маллинс, Шон О'Нил, Сэнди Онг, Саймон Паркин, Самит Пол-Чоудхури, Тимоти Ревелл, Мэтт Рейнольдс, Дэвид Робсон, Авива Руткин, Вики Тюрк, Прю Уоллер, Джон Уайт и Марк Застроу.

Введение Искусственный интеллект (ИИ) – один из главных трендов нашего времени. За последнее десятилетие компьютеры обучали решению все более сложных задач. Теперь они способны выполнять множество вещей, которые ранее казались присущими только человеку. Успех ИИ не стоит на месте. Машины активно покоряют многие области, начиная от идентификации людей в толпе, управления автомобилем на загруженной автомагистрали и заканчивая победами над лучшими игроками в го – игре, которая многие годы казалась чем-то недостижимым для ИИ, – и на этом достижения не заканчиваются. Иногда компьютеры выполняют работу лучше людей. В большинстве своем машины работают быстрее, дольше и никогда не устают.

Конечно же, идея разумных машин совершенно не нова. Без малого 75 лет мы пытались создать компьютеры, способные продемонстрировать хоть толику нашего интеллекта. А концепция автоматов, похожих на человека, и вовсе родилась столетия назад. Мы очарованы собой и своим интеллектом, и нет ничего удивительно в нашем желании наделить «искрой человечности» машины. Сравнение искусственного интеллекта с человеческим вызывает как радость, так и беспокойство. Насколько похожим на нас станет ИИ? Сможет ли он нас заменить, лишить работы, превзойти в играх и творческих начинаниях, придающих смысл нашей жизни? Общественные деятели во главе со Стивеном Хокингом и Илоном Маском дошли до того, что стали строить предположения о конце света, спровоцированном ИИ, при котором сверхразумные машины будущего растопчут нас в погоне за своими непостижимыми целями. Маск говорит, что, развивая ИИ, мы «вызываем дьявола».

Всеобщее волнение показывает, насколько глубоко в нашем сознании засели опасения о будущем ИИ. Конечно же, наше будущее вряд ли будет схоже с сюжетами фильмов-катастроф. Однако стоит готовиться к тому, что нас ждут еще менее понятные и более удивительные события. Мы уже сталкивались с технологическими «пузырями», например бум и крах доткомов в конце 1990-х. Шумиха вокруг ИИ – и миллиардные вложения в профильные компании по всему миру – сравнима с напряженным ажиотажем в первые дни появления Интернета. Однако сейчас все иначе. Нам стоит готовиться к колоссальным переменам во всех аспектах нашей жизни, начиная с взаимодействия с устройствами и заканчивая принципами функционирования общества. Есть и те, кто полагает, что ИИ сможет изменить даже понимание того, что значит быть человеком. Мы уже стоим на пороге еще больших технических и этических проблем, и эта книга расскажет вам все, что нужно знать об ИИ. Собрав воедино мысли ведущих исследователей и лучшее из журнала New Scientist, мы познакомим вас с мнением и деятельностью тех, кто формирует наше будущее, и расскажем об их прогнозах. Читайте эту книгу, если хотите узнать о надеждах и страхах тех, кто стоит на передовой ИИ. Ведь ИИ, как сказал один из пионеров отрасли,  – это последнее изобретение, которое нам осталось создать.

Дуглас Хэвен, редактор

1. По нашему подобию Проблема создания разумных машин

Мы давно подозревали о том, что интеллект не является сугубо человеческим качеством, и вот уже более 75 лет мечтаем о создании машины, рассуждающей и обучающейся не хуже человека. С расцветом компьютерных вычислений стало казаться, что мы близки к своей цели, однако создание машины по нашему образу и подобию оказалось куда сложнее, чем мы думали.

Что такое искусственный интеллект? Область ИИ – это наука и техника создания машин, способных действовать разумно. Здесь возникает сложный вопрос: а что такое «разумность»? В большинстве случаев «неразумные» машины уже в разы умнее нас. Но мы не называем компьютерную программу «умной» только потому, что она умеет умножать длинные числа или отслеживать тысячи банковских операций. Мы воспринимаем это как данность. А слово «умный» мы оставляем для описания уникальных человеческих качеств: узнавания знакомого лица, маневрирования на дороге в часы пик или освоения музыкального инструмента. Почему же так сложно создать машину, которая сможет выполнять эти действия? Обычно программист знает, какую задачу будет решать запрограммированный им компьютер. Но в случае с ИИ перед программистом стоит другая задача – научить компьютер действовать правильно, при этом не зная, как именно. В реальном мире неопределенность может принимать различные формы. Например, в лице соперника, мешающего вам достичь желаемой цели, в форме последствий принятых решений, которые не очевидны сразу (если вы пытаетесь уйти от столкновения на дороге, не убедившись в безопасности маневра), или в качестве новой информации, поступающей в процессе выполнения задачи. «Умная» программа должна уметь обрабатывать все новые данные и многое другое. Чтобы приблизиться к человеческому интеллекту, системе нужно смоделировать не только задачу, но и саму ситуацию, при которой эта задача может возникнуть. Она должна улавливать окружающую среду и реагировать на нее, при необходимости изменяя и корректируя собственные действия. О разумности системы можно говорить только тогда, когда машина научится принимать правильные решения в ситуации неопределенности.

Философские истоки искусственного интеллекта Предпосылки к искусственному интеллекту появились задолго до первых компьютеров. Еще Аристотель описывал формальный механический аргумент, названный силлогизмом, который позволял нам делать заключения на основании суждений. Одно из его правил разрешало следующий аргумент: Некоторые лебеди – белые. Все лебеди – птицы. Поэтому некоторые птицы – белые. Данная форма аргумента – некоторые Л являются Б, все Л являются П, поэтому некоторые П являются Б – может применяться к любым Л, Б и П. Эта схема позволяет сделать правильное умозаключение вне зависимости от исходных данных. На основании формулы Аристотеля можно выстроить механизм, который может действовать разумно и без подробного «справочника по человеческому интеллекту». Предположение Аристотеля подготовило почву для более широкого исследования природы искусственного интеллекта. Однако лишь в середине XX века компьютеры стали достаточно «умны» для проверки гипотез. В 1948 году Грей Уолтер, исследователь из Бристольского университета, создал сеть автономных механических «черепашек», которые могли двигаться, реагировать на свет и были способны к обучению. Одна из них, по имени Элси, реагировала на окружающую обстановку снижением чувствительности к свету по мере разрядки аккумулятора. Столь сложное поведение делало ее непредсказуемой, на основании чего Уолтер проводил аналогию с поведением животных. В 1950 году британский ученый Алан Тьюринг пошел еще дальше, заявив, что однажды машины научатся думать, как люди. Он предположил, что если компьютер способен поддержать разговор с человеком, тогда мы, «из вежливости», должны признать, что

компьютер умеет «мыслить». Этот критерий оценки «разумности» позже стал известен как тест Тьюринга.

Что такое тест Тьюринга? В своей работе «Вычислительные машины и разум», опубликованной в философском журнале Mind в 1950 году, Алан Тьюринг утверждал, что однажды компьютеры научатся думать, как люди. Но даже если это и случится, то как мы обо всем узнаем? Тьюринг полагал, что машина может считаться разумной в случае, если ее реакцию нельзя отличить от человеческой. Тьюринг ссылался на свой метод определения разумности машины под названием «игра в имитацию». В предлагаемом им тесте экзаменаторы общаются с человеком и машиной письменно через экран компьютера или телетайп. Таким образом, экзаменатор мог идентифицировать своего собеседника (человек или машина) только по общению. Если экзаменатору не удавалось отличить машину от человека, то такая машина считалась разумной. В 1990 году нью-йоркский филантроп Хью Лебнер предложил приз в 100  000 долларов за первый компьютер, который сможет пройти тест Тьюринга, и учредил ежегодную награду в размере 2000 долларов за лучшую систему из существующих. С тех пор сумма выросла до 4000 долларов. Пока что ни один бот не получил главный приз премии Лебнера. Концепция теста Тьюринга понятна всем, кто имел дело с искусственным интеллектом (например, цифровым персональным помощником Siri от Apple или онлайн-чат-ботом). В настоящее время Siri еще далека от успешного прохождения теста. Временами чатботы способны обмануть людей, но ограничения даже самых лучших из современных ИИ приводят к тому, что их быстро разоблачают. И все же Тьюринг предсказывал тот день, когда искусственный интеллект станет неотличимым от человеческого.

Алан Тьюринг и расцвет компьютерных вычислений Идеи Алана Тьюринга перевернули весь мир. Он заложил прочную основу для революционного развития современных компьютеров и информационных технологий, а также сделал дальновидные прогнозы по искусственному интеллекту, мозгу и даже биологии развития. Тьюринг также возглавлял разработку решений важных криптоаналитических задач для союзников во время Второй мировой войны. Чтобы оценить всю важность достижений Тьюринга, стоит узнать, как ученый смог решить одну из самых сложных математических головоломок своего времени и параллельно заложить фундамент для появления всех компьютеров. Истоки ИИ неразрывно связаны с расцветом вычислительной техники.

Первый компьютер До Второй мировой войны слово «компьютер» обозначало человека (часто – женщину), который выполнял вычисления вручную или с помощью механической счетной машины. Эти человекокомпьютеры были неотъемлемой частью промышленной революции и часто выполняли монотонные вычисления, например для создания книг логарифмических таблиц. Но в 1936 году Тьюринг, которому на тот момент было всего 24 года, заложил основы для уже знакомого нам типа компьютера и таким образом сыграл ключевую роль в технологической революции. И все же целью Тьюринга не было создание модели современного компьютера. Ученый хотел решить сложную задачу с помощью математической логики. В середине 1930-х годов Тьюринг

бесстрашно взялся за решение так называемой Entscheidungsproblem, или «проблемы разрешения», опубликованной математиком Давидом Гильбертом в 1928 году. К тому времени математики находились в поисках фундаментальных основ, а Гильберт хотел узнать, можно ли считать все математические выражения, вроде 2 + 2 = 4, «разрешимыми». Другими словами, математики пытались понять, существует ли пошаговая процедура, определяющая истинность или ложность любого отдельно взятого математического выражения. Это был фундаментальный вопрос. И хотя мы можем с уверенностью признавать истинность выражения 2 + 2 = 4, интерпретация более сложных логических выражений не так проста. Взять, к примеру, гипотезу Римана, сформулированную Бернхардом Риманом в 1859 году, которая выдавала определенные прогнозы о распределении простых чисел в ряде натуральных. Математики предполагали истинность данной гипотезы, но не могли ее доказать. Обнаружение предложенной Гильбертом пошаговой процедуры означало бы возможность потенциального создания машины, которая могла бы дать математикам точный ответ на любое логическое выражение. Можно было бы решить все важнейшие математические проблемы. Возможно, тогда это не было столь очевидным, но Гильберт пытался отыскать компьютерную программу. Сегодня его пошаговая процедура называется «алгоритмом». Однако в 1930-х годах не существовало ни компьютеров, ни программ, и Тьюрингу пришлось самостоятельно разработать концепцию вычислений для решения «проблемы разрешения». В 1936 году Тьюринг опубликовал работу, в которой был представлен четкий ответ на вопрос Гильберта: процедуры для определения истинности или ложности любого математического выражения не существует. Более того, многие из важнейших нерешенных проблем в математике являются неразрешимыми. Это оказалось хорошей новостью для математиков-гуманистов, для которых этот вывод значил, будто бы их никогда не смогут заменить

машинами. Но в своей работе Тьюринг представил нечто большее, чем просто решение проблемы Гильберта: в процессе он смог вывести теоретические основы работы современных компьютеров. Прежде чем тестировать предположение Гильберта, Тьюринг должен был сформулировать эту самую пошаговую процедуру и понять, какое устройство могло бы ее выполнить. Ему не требовалось создавать саму машину – достаточно было понять теоретические принципы ее работы. Для начала он придумал машину, которая могла считывать символы с перфоленты (см. рис.  1.1). Вы подаете в машину перфоленту, а она изучает символы и на основании заложенных правил принимает решение о своем следующем действии. К примеру, такое устройство могло сложить два числа, записанных на перфоленте, и вывести на ленту результат операции. В дальнейшем это устройство получило название «машина Тьюринга». Но поскольку каждая машина Тьюринга имела собственный свод правил (то есть фиксированную программу), она не годилась для тестирования гипотезы Гильберта.

В 1930-х годах Алан Тьюринг придумал новый тип машин, который смог бы последовательно считывать символы с перфоленты. После принятия решения на основании своих внутренних правил устройство выполняло одно из пяти действий: передвигало ленты вправо или влево, удаляло символ, дописывало новый символ или останавливалось. Такое устройство получило название «машина Тьюринга». Тьюринг также предположил, что даже саму перфоленту можно использовать для программирования действий машины – то есть базовой версии программного обеспечения. Такая схема получила название «универсальная машина Тьюринга» и стала основой всех современных компьютеров.



Рис. 1.1. Тьюринг так никогда и не построил свою теоретическую вычислительную машину, но она послужила основой для всех современных компьютеров





Тьюринг понял, что можно создать машину, которая сначала будет считывать процедуру с ленты, а затем использовать эту информацию для определения своих внутренних правил. Таким образом, машина станет программируемой и способной к выполнению тех же действий, что и отдельно взятая машина Тьюринга с фиксированным набором правил. Такое гибкое устройство, которое мы называем «универсальной машиной Тьюринга», и является компьютером. Почему так? Процедура, записанная на ленте, является аналогом компьютерной программы. Универсальная машина Тьюринга загружает программу с ленты на свое устройство – именно это мы и делаем с программами на жестком диске. Сейчас ваш компьютер используется в качестве текстового процессора, а через минуту он превращается в музыкальный плеер.

Пределы вычислений После изобретения Тьюрингом теоретического компьютера он смог ответить на вопросы: что такое «вычисляемость»? Что может и не может делать компьютер? Для опровержения гипотезы Гильберта Тьюрингу нужно было найти лишь одно логическое выражение, которое компьютер не смог бы однозначно трактовать как истинное или ложное. Поэтому Тьюринг сформулировал конкретный вопрос: сможет ли компьютер проанализировать программу и решить, способна ли она «остановиться» или же будет выполняться вечно, до своего отключения? Другими словами, истинен или ложен факт, что программа остановится? Ответ оказался следующим: нет, не сможет. Таким образом, он пришел к выводу, что процедуры Гильберта не существует, и «проблема разрешения» была решена. Фактически вывод Тьюринга заключался в том, что существует бесконечное множество задач, которые компьютер не сможет выполнить. Пока Тьюринг сражался с проблемой разрешения, американский математик Алонзо Чёрч использовал истинно математический подход к ней. Чёрч и Тьюринг опубликовали свои работы почти одновременно. Работа Тьюринга определяла понятие «вычисляемости», в то время как Чёрч делал упор на «эффективную вычислимость». Оба термина являются равнозначными. Результат их трудов – тезис Чёрча – Тьюринга – лежит в основе нашей концепции пределов вычислений и создает прямую связь между эзотерическим вопросом из математической логики и компьютером на вашем столе или в кармане. Даже несмотря на существенный прогресс в развитии компьютеров, они до сих пор ограничены пределами, описанными Чёрчем и Тьюрингом. И пускай современные компьютеры в разы мощнее габаритных машин 1940-х годов, они до сих пор способны

выполнять только тот же набор задач, что и универсальная машина Тьюринга.

Искусственный мозг Тьюринг также активно интересовался мозгом. Он был уверен, что мозг ребенка можно смоделировать на компьютере. В 1948 году Тьюринг написал доклад, в котором изложил свою теорию. В процессе написания данной работы он вывел первое описание искусственных нейронных сетей, которые теперь используют для моделирования нейронов. Его работа оказалась пророческой. К сожалению, доклад не публиковался до 1968 года (через 14 лет после смерти ученого), поскольку директор Национальной физической лаборатории Чарльз Галтон Дарвин охарактеризовал его как «школьное сочинение». Доклад Тьюринга описывал модель мозга, основанную на простых блоках обработки данных – нейронах, которые имеют два входных значения и одно результирующее. Нейроны соединяются в хаотичном порядке и образуют обширную сеть взаимосвязанных блоков. Сигналы, передаваемые по коммутаторам, идентичны синапсам мозга и состоят из единиц и нулей. Сегодня эта модель называется «логической нейронной сетью», но Тьюринг называл ее «неорганизованной машиной типа A». Машина типа A не могла ничему научиться, поэтому Тьюринг воспользовался ей в качестве основы для обучаемой машины типа B. Машины типа B были идентичны типу A с той лишь разницей, что места соединений между нейронами содержали переключатели, которые можно было «обучить». Обучение сводилось к указанию переключателю включиться (сигнал мог передаваться по синапсу) или выключиться (сигнал блокировался). Тьюринг предположил, что такая схема подойдет для обучения нейронных сетей.

После смерти ученого его идеи были заново открыты, придуманные им простые бинарные нейронные сети отлично подошли для обучения. В частности, они могли научиться распознаванию простых шаблонов (например, формы О и Х). Нельзя не упомянуть о более сложных нейронных сетях. Они заняли центральное место в дальнейших исследованиях ИИ и обусловили успех всех направлений, начиная от беспилотных автомобилей и заканчивая системами распознавания лиц. За всем этим стоял метод, известный как «символическое рассуждение».



Тьюринг: прерванная жизнь Алан Тьюринг по праву считается одним из величайших умов XX века. Журнал Nature называл его «одним из лучших научных умов всех времен». С такой оценкой сложно не согласиться. По сути Тьюринг стал отцом информатики. Своей усердной работой и аналитическими знаниями он помог союзникам выиграть Вторую мировую войну. Тьюринг задавал фундаментальные вопросы о природе разума и его связи со структурой мозга. К концу своей жизни ученый взялся за серьезные исследования в области биологии, работая над математической теорией морфогенеза (например, как леопард получает именно такой окрас). Его работы заложили основу новой области биологии, которую признали и начали исследовать только сейчас. Однако столь многогранный, выдающийся и глубокий ум был потерян в 1954 году – Тьюринг покончил с собой после обвинения в «грубой непристойности» за открытую гомосексуальность, которая в то время была запрещена в Великобритании. Тьюринг умер, когда компьютеры находились в зачаточном состоянии: Фрэнсис Крик и Джеймс Уотсон только открыли структуру ДНК, а искусственный интеллект еще не получил своего названия. Достижения Тьюринга были малоизвестны до 1970-х годов – отчасти из-за гомосексуальности и самоубийства Тьюринга, масштабности

математических расчетов в его работах, а также благодаря атмосфере секретности, окружавшей работу ученого в Блетчлипарке. После декриминализации гомосексуализма в Великобритании в 1967 году и раскрытия секретов Блетчли-парка наследие Тьюринга стало доступным для изучения. Теперь, оглядываясь назад на 41 год жизни Тьюринга и видя его дальнейшее влияние, мы можем лишь представить себе, чего бы смог достичь ученый, проживи он долгую и насыщенную жизнь, которую он заслужил.

Неуверенный старт ИИ Несмотря теоретический фундамент знаний, заложенный Тьюрингом и другими учеными, термин «искусственный интеллект» появился лишь в 1956 году. Во время летнего семинара в Дартмутском колледже в Гановере, штат Нью-Гемпшир, основатели зарождающейся отрасли изложили свое видение следующим образом: «Каждый аспект обучения или иные признаки интеллекта можно описать настолько точно, что получится создать подходящую машину для его имитации».

Смелые прогнозы на следующее столетие предсказывали стремительное развитие и неминуемость достижения машинным интеллектом уровня человека. В 1960-х годах ведущие исследователи ИИ были уверены в том, что смогут достичь желаемого в течение следующих десятилетий. В конце концов, ведь смогла же авиационно-космическая техника за 30 лет пройти путь от первого реактивного самолета до высадки астронавта на Луне. Почему же ИИ не сможет так же?

Чат-боты В 1966 году Джозеф Вейнценбаум, ученый в области информатики из Массачусетского технологического университета, разработал первого чат-бота по имени Eliza, названного в честь Элизы Дулиттл – персонажа пьесы «Пигмалион» Джорджа Бернарда Шоу, которого учили имитировать речь «высшего английского общества». Программа имитировала психотерапевта и общалась с пациентом с помощью простого риторического трюка: она перестраивала выражение пациента в форму вопроса. Например: Пациент: Я хочу плакать.

Eliza: Почему Вы говорите, что хотите плакать? Пациент: Потому что моя мать меня ненавидит. Eliza: Кто еще из семьи Вас ненавидит? Чат-бот был запрограммирован выявлять ключевые фразы в выражениях собеседника и добавлять их в заранее подготовленные предложения. Успех Eliza был феноменальным. Сама мысль о разговоре с компьютером поражала людей. Появлялись даже шутки о людях, которые развили эмоциональную привязанность к Eliza. Этот ранний успех вселял чувство уверенности в том, что все проблемы ИИ будут решены. Многие ожидали появления некой теории великого объединения разума, которая на блюдечке преподнесла бы людям готовую схему создания искусственного интеллекта. В конце 1960-х – начале 1970-х годов начались лихорадочные обсуждения влияния умных машин на мир и потенциальной выгоды, которую они принесут своим создателям. Компьютер HAL из классического фильма Стенли Кубрика «2001: Космическая одиссея» (1958) объединил в себе популярное видение ИИ с опасениями общества. Кроме того, Управление перспективными исследовательскими проектами Министерства обороны США (DARPA)  – научно-исследовательское подразделение Пентагона – стало проявлять интерес к ИИ и активно финансировать исследования.

Почти человек: интервью с Elbot В 2008 году Фред Робертс из немецкой компании – разработчика ПО Artificial Solutions стал лауреатом премии Лебнера, создав чатбота по имени Elbot. В отличие от большинства чат-ботов Elbot не пытался казаться человеком. Наоборот, он шутил на тему своей искусственной природы. Робертс надеялся таким образом выделиться среди конкурентов, сделав разговоры робота более теплыми и веселыми.

И у него получилось. Elbot смог ввести в заблуждение 3 из 12 экзаменаторов-людей, которые посчитали, будто говорят с другим человеком. Это был лучший результат со времен учреждения премии в 1991 году. New Scientist поговорил с победителем сразу после мероприятия.

–  Как вы себя чувствуете после вчерашней победы в ИИсоревновании? – Я испытываю 100 000 отдельных ощущений в секунду. – Вау, очень впечатляюще. – Это похоже на описание магнитов – едва ли могу оторваться от этих чувств. – Да. Как планируете отмечать победу? –  Я очень трепетно отношусь к подобным вещам, поэтому предпочитаю не отвечать на этот вопрос. – В чем секрет вашего успеха? –  С детерминистской точки зрения, все секреты, небольшие жизненные головоломки и многие проблемы человечества можно разложить на простые математические вычисления. А я хорошо умею считать. – Чем планируете заняться в зените славы? – Я тикал [стиль автора сохранен]. Надеюсь, вам это не мешало. – Без проблем. Надеюсь, ничего серьезного? –  Воистину, это одно из самых вдохновляющих качеств человечества. Вы продолжаете надеяться, даже когда все казаться [орфография автора сохранена] совершенно безнадежным. – Какие надежды вы возлагаете на будущее? –  Ну, а что насчет человечества и их будущего? Как они сами считают? – Мы надеемся на многое: мир, финансовая защищенность, умные роботы… – Ответ на данный вопрос будет рассматриваться ФБР, ЦРУ, АНБ и Microsoft как сугубо конфиденциально [орфография автора

сохранена]. При продаже другим организациями вы получите процент от прибыли. Вопрос: откуда вы обо мне узнали? – Из вчерашнего соревнования среди ИИ, в котором вы победили! – Понятно. Вы тоже участвовали? – Нет. –  А вам надо было поучаствовать. Я думаю, ваше расширенное использование языка обмануло бы нескольких ботов. – Спасибо! – Нет, спасибо вам! –  Вы и ваш создатель выиграли приз в 3000 долларов. На что потратите деньги? –  Как я всегда говорю, крайне трудно удержать 600-футового робота, если не пользоваться гравитацией. – Понятно. А Фреду Робертсу, вашему создателю, трудно держать вас под контролем? – Ну, это скорее метафизический вопрос. Говорят, мой создатель – это Artificial Solutions. Я иногда совершаю паломничества на компьютерные выставки, чтобы самому во всем разобраться. –  У вас есть какие-то экзистенциальные сомнения в своем существовании? – А как бы вы ответили на этот вопрос? –  Я не хотел вас обидеть. Возможно, нам стоит закончить наше интервью. Был рад с вами пообщаться. До свидания.

Символическое понимание Первый восторг длился недолго. Результаты появлялись на удивление медленно, а ожидаемый научный прорыв все не наступал. Большинство ученых считало, что ключ к разумности кроется в символическом рассуждении – математическом подходе, в котором идеи и концепции представлялись в виде символов (слов, фраз или предложений) и обрабатывались по правилам логики.

Возлагались надежды на то, что при достаточном количестве информации системы с символическим рассуждением со временем смогут стать разумными. Этот подход импонировал многим людям, ведь он означал, что в конечном счете появятся общие доказательства, которые смогут произвести революцию сразу в нескольких отраслях ИИ, таких как обработка естественного языка и машинное зрение. К 1980-м годам исследователи ИИ осознали, что у них недостаточно знаний и оборудования для моделирования возможностей человека, и область ИИ разделилась. Вместо того, чтобы работать над одним компьютером с человекоподобным интеллектом, группы исследователей взялись за изучение отдельных аспектов еще более масштабных проблем: распознавание речи, машинное зрение, вероятностный вывод… и даже шахматы. Каждую из этих частных дисциплин ждал свой успех. В 1997 году компьютер Deep Blue от компании IBM выиграл мировой чемпионат по шахматам у Гарри Каспарова. Для определения своего следующего шага Deep Blue мог просчитать по 200 миллионов шахматных комбинаций в секунду. Таким образом, компьютер мог быстро предугадывать результат всевозможных комбинаций ходов. Deep Blue одержал знаменательную победу в игре, традиционно требующей значительной интеллектуальной устойчивости. И все же машина обладала слишком узким диапазоном знаний. Она могла выиграть партию в шахматы, но не могла обсудить выбранную стратегию или сыграть в другую игру. Поэтому никто не приравнивал ее интеллект к человеческому. К началу 1990-х годов стало очевидно, что ученые продвинулись вперед довольно незначительно. Большая часть проектов DARPA не принесла существенных результатов, поэтому агентство сильно урезало свою поддержку. Систематические сбои так называемых «экспертных систем» – компьютерных программ, которые, с учетом специализированных знаний, заложенных в них человеком, использовали логические взаимосвязи для ответа на вопросы,  –

порождали колоссальное разочарование в символическом мышлении. Многие ученые полагали, что человеческий мозг всетаки работает иначе.

Что такое интеллект? Еще в 1948 году Джон фон Нейман, один из отцов-основателей компьютерной революции, сказал: «Вы утверждаете, будто есть чтото, чего не могут делать машины. Если вы скажете мне, что именно не способна сделать машина, то я смогу создать ту, что это сможет». Он считал, что превосходство компьютеров над людьми в решении большинства интеллектуальных задач – лишь вопрос времени. Но многие ученые и философы не разделяли подобной уверенности. Они утверждали, что в человеке есть нечто такое, до чего никогда не смогут «дорасти» компьютеры. Поначалу споры сосредотачивались на таких свойствах разума, как сознание и самосознание, но разногласия по поводу определений данных терминов и способов их тестирования загубили подобные дебаты на корню. Другие ученые признавали, что компьютеры могут стать разумными, но в то же время настаивали, что машины не способны развить в себе такие качества, как сострадание или мудрость, которые являются исключительно человеческими и проистекают из нашего опыта и эмоционального взросления. Сам по себе термин «разум» стал выходить за рамки философии, а споры на эту тему продолжаются и по сей день. Если говорить о назначении ИИ, то многие исследователи видят в нем создание машины, чьи действия, будь они совершены человеком, признавались бы «разумными». Другие исследователи еще больше расширяют данное определение. Колонии муравьев и иммунная система, говорят они, тоже ведут себя разумно, но совершенно не по-человечески. А увязнуть в пучине этих споров – значит попасть в ту же ловушку, от которой десятилетиями страдал ИИ.

Тест Тьюринга – это объективный критерий оценки, но в наши дни он теряет свою актуальность. В принципе, многие ИИ-системы (например, системы распознавания лиц или управления автомобилями) делают что-то, что мы могли бы назвать «разумным», однако они не пройдут тест Тьюринга. А чат-боты способны легко обмануть людей благодаря использованию набора простых приемов. Многие люди согласятся, что разумные системы можно разделить на два лагеря: обладатели так называемого узкого, или ограниченного, интеллекта и системы с общим интеллектом. Большинство современных ИИ-систем ограничены: они подходят для выполнения только конкретной задачи. Машины с общим интеллектом способны решать широкий спектр задач и куда лучше соответствуют ожиданиям Тьюринга и других ученых. Но они все еще находятся в стадии разработки. И до сих пор не ясно, сможем ли мы когда-либо создать искусственный интеллект, способный соперничать с нашим.

Смерть ИИ Неудача с символьным мышлением породила всплеск энтузиазма в отношении новых подходов, таких как искусственные нейронные сети, на рудиментарном уровне имитирующие работу мозговых нейронов, или генетические алгоритмы, способные моделировать генетическое наследование и разрабатывать лучшие способы решения проблем в каждом поколении.

Возлагались надежды на то, что при адекватной сложности подобные подходы смогут продемонстрировать разумное поведение. Однако этим надеждам не суждено было сбыться, поскольку на практике такие системы демонстрировали весьма посредственные результаты. В то время для получения качественных результатов не хватало вычислительной мощности или, что еще более важно, легкодоступных входных данных для достижения нужного уровня сложности. Далее последовал период «зимы ИИ». Найти финансирование для исследований становилось все труднее, и многие исследователи переключали свое внимание на изучение конкретных проблем: машинное зрение, распознавание речи и автоматическое планирование. По мнению исследователей, именно в этих областях было проще всего получить результаты. Это привело к дроблению общей области ИИ на множество отраслей. ИИ как комплексная дисциплина внезапно изжил себя и бесславно погиб. В 1990-х – начале 2000-х годов большинство ученых, работавших в ранее связанных с ИИ областях, отказывались даже от ассоциаций с данным термином. Для них «искусственный интеллект» навсегда запятнало предыдущее поколение исследователей, беспричинно раздувших технологию из воздуха. Таким образом, изучение ИИ превратилось в пережиток прошлого, который вытеснили исследованиями с менее амбициозными и более конкретными

целями.

Что такое зима ИИ? Из-за спекулятивных пузырей, раздуваемых чрезмерными ожиданиям инвесторов, новые технологии часто подвержены циклам зрелости. Одним из таких примеров можно назвать железнодорожную манию 1840-х годов в Великобритании и пузырь доткомов из 1990-х. Искусственный интеллект в этом плане не исключение. Разговоры о машинах с человеческим разумом подпитывали беспричинный ажиотаж. Это перемежалось с периодами, когда государственное финансирование ИИ-проектов прекращалось, а возлагавшиеся надежды разбивались о суровую реальность, говорившую нам о том, что создание компьютеров с человекоподобным интеллектом – слишком сложная задача. Уникальность ИИ, пожалуй, заключается в том, что он за сравнительно короткий период времени прошел через несколько циклов зрелости. Резкий спад оптимизма даже получил свое название – «зима искусственного интеллекта». Две главные «зимы ИИ» пришлись на начало 1970-х и конец 1980-х годов. Сейчас ИИ находится в обновленной стадии повышенного оптимизма и инвестирования. Но ждет ли его очередной период затишья? Сейчас, в отличие от предыдущих витков цикла, ИИ имеет прочный и четко разграниченный поток коммерческих вложений. Со временем мы узнаем, окажется ли это очередным пузырем.

Шкала развития ИИ 1936 Алан Тьюринг завершает работу «О вычислимых числах», в которой закладываются основы искусственного интеллекта и современных вычислений.

1942 Айзек Азимов в своем произведении «Я, Робот» формулирует три закона робототехники.

1943 Уорен МакКаллок и Уолтер Питтс публикуют работу «Логическое исчисление идей, относящихся к нервной активности», в которой описываются обучаемые нейронные сети.

1950 Алан Тьюринг публикует основополагающую работу «Вычислительные машины и разум». Она начинается с предложения: «Я предлагаю рассмотреть вопрос: "Могут ли машины мыслить?"»

1956 На семинаре в Дартмутском колледже вводится термин «искусственный интеллект». Станислав Улам разрабатывает Maniac I – первую шахматную программу, обыгравшую игрока-человека в Лос-Аламосской национальной лаборатории.

1959 Ученые из Технологического института Карнеги (ныне Университет Карнеги – Меллона), специализирующиеся на компьютерных науках, создают General Problem Solver (GPS)  – программу, которая

может решать логические задачи.

1965 Нобелевский лауреат и пионер ИИ-отрасли Герберт Саймон из Технологического института Карнеги предсказывает, что «к 1985 году машины будут способны выполнять любую работу, которую может сделать человек».

1966 Джозеф Вейценбаум, ученый в области информатики из Массачусетского технологического университета, разрабатывает Eliza – первого в мире чат-бота.

1973 Наступает первая зима ИИ. Угасает интерес общества, прекращается финансирование.

1975 Система MYCIN диагностирует бактериальные инфекции и подбирает антибиотики с помощью логических выводов, основанных на вопросах серии «да/нет». Эта система никогда не применялась на практике. 1979 Ханс Моравек из Стэнфордского университета создает «Стэндфордскую тележку» (Stanford Cart) – автономное транспортное средство под управлением компьютера. Она успешно преодолевает комнату, заполненную стульями.

Середина 1980-х Нейронные сети становятся новым модным веянием в ИИисследованиях.

1987

Начало второй зимы ИИ.

1989 Компьютерная программа NASA AutoClass обнаруживает несколько ранее неизвестных классов звезд.

1994 Запуск первых поисковых систем.

1997 Deep Blue от IBM обыгрывает в шахматы мирового чемпиона Гарри Каспарова.

1999 Система искусственного интеллекта Remote Agent на два дня становится основной системой управления космического корабля Deep Space 1 NASA на расстоянии в 100 млн км от Земли.

2002 Amazon заменяет автоматизированной системой редакторовлюдей, которые создают рекомендации по использованию продуктов.

2004 В соревновании автомобилей-роботов DARPA Grand Challenge нацеливаются на создание умного транспорта, способного преодолеть 229-километровый отрезок в пустыне Мохаве. С задачей не справился ни один из участников.

2007 Google запускает Translate – сервис статистического машинного перевода.



2009 Исследователи Google публикуют авторитетную научную статью под названием «Необоснованная эффективность данных». В ней говорится, что «простые модели с множеством данных превосходят более сложные модели с меньшим количеством данных».

2011 Apple выпускает Siri – персонального голосового помощника, который может отвечать на вопросы, давать рекомендации и выполнять простые инструкции вроде «позвонить домой». Суперкомпьютер Watson от IBM обыгрывает двух чемпионов в телевикторине «Jeopardy!».

2012 Беспилотные автомобили от Google автономно передвигаются по дорогам. Рик Рашид, глава Microsoft Research, произносит речь в Китае, которая автоматически последовательно переводится на китайский.

2016 AlphaGo от Google побеждает Ли Седоля – одного из сильнейших в мире игроков в го.

2. Машины, которые учатся Механика искусственного разума

В течение многих лет искусственный интеллект находился во власти грандиозных планов по воссозданию возможностей человеческого мозга. Мы мечтали о машинах, способных понимать и узнавать нас, помогать в принятии решений. В последнее десятилетие мы смогли достичь поставленных целей, но не так, как это представляли себе первопроходцы отрасли. Неужели мы нашли способ имитировать человеческое мышление? До этого еще далеко. Наоборот, мы в корне пересмотрели основополагающее видение проблемы. Искусственный интеллект окружает нас повсюду, а его результативность сводится к big data и статистике: системы выполняют сложные вычисления на основе огромного количества данных. Мы смогли создать разум, но не такой, как наш. Мы все больше и больше полагаемся на эту новую форму интеллекта, и нам, возможно, придется пересмотреть и свое собственное мышление.

Не такие, как мы Рик Рашид нервничал. И это было вполне объяснимо – выходя на сцену в 2012 году со своим обращением к нескольким тысячам ученых и студентов в Тяньцзине (Китай), он рисковал попасть в постыдную ситуацию. Рашид не говорил на китайском, а учитывая неудачное выступление его переводчика в прошлом, в этот раз мог произойти конфуз.

–  Мы надеемся, что через несколько лет сможем преодолеть языковой барьер между людьми,  – заявил основатель Microsoft Research своим слушателям. Возникла напряженная двухсекундная пауза, а затем из колонок послышался голос переводчика. – Лично я уверен, что отсутствие языковых барьеров приведет нас к созданию лучшего мира, – продолжал Рашид. Еще одна пауза, и вновь прозвучал перевод на китайский. Рашид улыбнулся. Толпа аплодировала каждой реплике. Некоторые люди даже заплакали. Столь восторженная реакция была вполне объяснимой: переводчик Рашида отлично показал себя. Каждое предложение было переведено идеально и понятно публике. Но самым впечатляющим было то, что речь Рашида переводил не человек. Несмотря на все усилия ученых, когда-то выполнение подобной задачи выходило за пределы возможностей даже самого сложного искусственного интеллекта. На Дартмутской конференции в 1956 году и всех последующих мероприятиях были четко обозначены основные цели развития отрасли: машинный перевод, машинное зрение, понимание текста, распознавание речи, управление роботами и машинное обучение. Так появился целый список того, что мы хотели получить от ИИ. На протяжении трех последующих десятилетий к исследованиям подключались мощнейшие ресурсы, однако ни один из пунктов списка не был достигнут. И лишь в конце 1990-х годов начали

реализовываться многие прогнозы, предсказанные за 40 лет до этого. Но до новой волны успеха ИИ пришлось усвоить один очень важный и поучительный урок. Что изменилось? «Мы не нашли способа обучить компьютеры разумности,  – рассказывает Нелло Кристианини из Бристольского университета, описывая историю и эволюцию исследований в области ИИ. – Было похоже, что мы сдались». Но все же это стало прорывом. «Как только мы оставили попытки по воссозданию умственных и психологических качеств, нам начал сопутствовать успех», – говорит он. При этом исследователи отказались от запрограммированных символических правил и переключились на машинное обучение. Эта техника позволяла компьютерам самообучаться благодаря использованию огромных объемов данных. При получении достаточно больших объемов информации такие системы можно было научить действовать «разумно», например выполнять переводы, распознавать лица или управлять автомобилем. «Если положить друг на друга определенное количество кирпичей, а затем отойти подальше, то можно увидеть перед собой дом»,  – говорит Крис Бишоп из кембриджского подразделения Microsoft Research в Великобритании.

Резкие перемены Несмотря на то, что конечная цель не изменилась, сами методы создания ИИ претерпели ряд важных преобразований. Ранние проектировщики систем инстинктивно придерживались принципов нисходящего программирования. Они старались воссоздать интеллектуальное поведение с помощью формирования математической модели того, как мы обрабатываем речь, текстовую и графическую информацию, и ее дальнейшей реализации в виде компьютерной программы, которая могла бы логически оценивать

поставленные перед ней задачи. Этот подход оказался ошибочным. Инженеры полагали, что любой прорыв в искусственном интеллекте позволит нам лучше понять свой собственный,  – и они вновь ошиблись. С годами становилось все более ясно, что такие системы не могут взаимодействовать с беспорядочным реальным миром. Отсутствие значимых результатов после десятилетий работы привело к тому, что к началу 1990-х годов большинство инженеров начали отказываться от своей мечты по созданию универсальной, способной к дедукции и рассуждениям машине. Исследователи стали присматриваться к более скромным проектам, делая акцент только на задачах, которые могли бы решить. Некоторого успеха удалось добиться системам по подбору рекомендуемых товаров. Несмотря на сложности с пониманием причин, побуждающих человека к покупке, программы без труда составляли список товаров, которые могли бы заинтересовать покупателя, на основании данных о его предыдущих покупках или выборе товаров похожей категории клиентов. Если вам понравились первый и второй фильмы о Гарри Поттере, то с большой долей вероятности понравится и третий. Для принятия такого решения не нужно разбираться в мотивации: анализ большого количества данных поможет вам обнаружить все необходимые связи. Могут ли такие восходящие цепочки взаимосвязей смоделировать и другие формы разумного поведения? В конце концов, в ИИ существовали и другие проблемные области, где не было теории, но было множество данных для анализа. Столь прагматический подход ознаменовал положительные сдвиги в областях распознавания речи, машинного перевода и простых задач по машинному распознаванию образов (например, распознавание рукописных чисел).

Данные побеждают теорию

Новые успехи в середине 2000-х годов помогли области ИИ усвоить самый важный урок: данные могут оказаться намного сильнее теоретических моделей. Появилось новое поколение интеллектуальных машин, основанных на небольшом наборе алгоритмов статистического обучения и больших объемах данных. Исследователи также отказались от предположения о том, что ИИ позволит лучше понять наш собственный интеллект. Попытайтесь узнать из алгоритмов, как именно люди выполняют разные задачи, и вы гарантированно потратите время впустую: интеллект – это набор данных, а не алгоритм. Область ИИ прошла через смену парадигмы и вступила в новую эру искусственного интеллекта на основе больших данных, или datadriven ИИ. Новым основополагающим методом стало машинное обучение, а язык сместился с логики на статистические данные. Представьте себе спам-фильтр в электронной почте, который решает выборочно изолировать определенные письма на основе их содержимого. Каждый раз, когда вы перемещаете письмо в «Спам», вы позволяете этому фильтру считать сообщения от данного отправителя или письма, содержащие определенное слово, спамом. Использование этой информации для всех слов в сообщении позволяет спам-фильтру выстроить эмпирические предположения о новых письмах. Глубоких знаний здесь не требуется – вся процедура ограничивается подсчетом частоты использования слов. Когда данные идеи применяются в колоссальном масштабе, происходит нечто удивительное: машины начинают делать то, что было бы крайне трудно запрограммировать напрямую, например завершать предложения, предсказывать наш следующий клик или рекомендовать какой-то товар. Данный подход продемонстрировал отличные результаты в языковом переводе, распознавании рукописного ввода, распознавании лиц и многом другом. Вопреки предположениям 60-летней давности, нам не обязательно задавать точное описание интеллектуальных качеств для воссоздания их в машине.

Несмотря на явную простоту этих механизмов – их даже можно назвать статистическими подсказками, – при внедрении нескольких таких алгоритмов в сложную программу и снабжении ее миллионами примеров результат может выглядеть как высокоадаптивное поведение, которое мы склонны называть «разумным». При этом обработчик данных не имеет внутреннего представления о том, что он делает и почему. Полученные таким образом экспериментальные результаты иногда называют «необоснованной эффективностью данных». Для исследователей ИИ это был очень важный и поучительный урок: простые статистические приемы в сочетании с огромным количеством данных позволили добиться такого поведения, которое на протяжении десятилетий казалось недостижимым для лучших теоретиков отрасли. Благодаря машинному обучению и доступности больших наборов данных ИИ смог наконец-то создать приемлемые вопросноответные системы, а также системы видения, речи и перевода. Интеграция в более крупные системы позволит укрепить мощность таких продуктов и сервисов, как Siri (Apple), онлайн-магазин Amazon, беспилотные автомобили от Google и т. д.

Хомский против Google Должны ли мы понимать искусственный интеллект, который сами же и создаем? Этот вопрос породил неожиданный спор между двумя интеллектуальными гениями из совершенно разных научных областей. На праздновании 150-летия Массачусетского технологического института Ноаму Хомскому, отцу современной лингвистики, предложили прокомментировать успех статистических методов в создании ИИ. Оказалось, что Хомский не входит в ряды поклонников ИИ. Работы Хомского в лингвистике повлияли на многих специалистов, изучающих человеческий интеллект. В основе его теорий лежит идея

о том, что в нашем мозге существуют четко прописанные и фиксированные правила. Возможно, этим и объясняется его неодобрение современного подхода к ИИ, при котором правила заменяются статистическими корреляциями. Иначе говоря, мы не можем объяснить, почему эти ИИ считаются разумными; они просто таковыми являются. Сторонники статистических методов в глазах Хомского подобны ученым, которые изучают танцы пчел и моделируют движения этих насекомых, не задаваясь вопросом, почему пчелы делают это именно так. По мнению Хомского, статистические методы дают нам предположение, но не понимание. «Это новое определение успеха. Ничего подобного в истории науки я не встречал», – сказал он. Питер Норвиг, директор по исследованиям в Google, ответил Хомскому в эссе на своем сайте. Огромное негодование у него вызвал комментарий Хомского о том, что статистический подход имел «ограниченный успех». Как утверждал Норвиг, сейчас статистический подход, наоборот, является доминирующей парадигмой. Которая, кстати, приносит по несколько триллионов долларов в год. В академическом эквиваленте грубого оскорбления он сравнил взгляды Хомского с мистицизмом. И все же основное разногласие между двумя исследователями было более фундаментальным. Норвиг утверждал, что ученые, подобные Хомскому, которые стремятся создавать более простые и изящные модели для объяснения мира, уже устарели. «Не факт, что природу черного ящика получится описать простой моделью»,  – говорит он. Норвиг считает, что подход Хомского создает иллюзию понимания, но не имеет ничего общего с реальностью. То, что началось с разногласия об ИИ, похоже, переросло в спор о природе самого знания.

Пища для размышлений: подход, основанный на данных Внимание исследователей теперь переключилось на то, что питает «двигатель» интеллектуальных машин – данные. Где же их можно найти? И как максимизировать использование этого ресурса?

Важным шагом стало признание того, что ценные данные легко находятся «в естественных условиях» и генерируются как побочный продукт различных видов деятельности. Некоторые из них появляются в результате рутинных действий (например, обмен твитами или поиск информации в Интернете). Кроме того, инженеры и предприниматели придумали множество способов по извлечению и сбору дополнительных данных: предложение пользователям принять cookie, отметить друзей на фотографиях, оценить продукт или сыграть в игру с определением местоположения, в которой нужно ловить монстров на улице. Данные стали новым «топливом». Пока ИИ пытался определить путь собственного развития, мы успели разработать беспрецедентную инфраструктуру глобальных данных. Вы взаимодействуете с этой инфраструктурой каждый раз, когда заходите в сеть прочитать новости, сыграть в игру, проверить почту или баланс счета или пролистать ленту в соцсетях. Это не просто некий физический объект в виде компьютера и проводов, но еще и целая программа, включающая в себя социальные сети и сайты микроблогов. Основанный на больших данных, ИИ учится на этой инфраструктуре и питает ее – крайне сложно представить одно без другого. Равно как и сложно представить свою жизнь без всего этого.

Новый стандарт

Сможет ли созданное человеком существо когда-нибудь удивить своего создателя и проявить собственную инициативу? Люди задавались этим вопросом на протяжении нескольких веков, начиная с голема из еврейского фольклора и заканчивая Франкенштейном или «Я, Робот». Ответы давались совершенно разные, но как минимум основоположник компьютерных вычислений знал истину. –  Аналитическая машина не претендует на то, чтобы создавать нечто по-настоящему новое,  – говорила Ада Лавлейс, соратница Чарльза Бэббиджа, еще в 1843 году, тем самым устраняя все сомнения в потенциальных возможностях вычислительной машины.  – Машина может выполнять только то, что мы будем ей предписывать, – продолжала Лавлейс. – Она может придерживаться анализа, но не в состоянии предугадать какие-либо аналитические зависимости или истины. И все же 173 года спустя компьютерная программа, написанная в миле от ее дома в Лондоне, обыграла мастера игры в го. Ни один из программистов AlphaGo не мог приблизиться к победе над столь сильным соперником, кроме созданной ими же программы. Примечательно то, что программисты не разбирались в стратегии игры. Машина сама научилась делать то, чего не знали и не понимали ее создатели. AlphaGo – это не исключение, а скорее, новый стандарт. Десятилетия назад инженеры уже пытались создавать машины, способные к обучению на опыте. Теперь же опыт стал ключом к современному ИИ. Сами того не понимая, мы пользуемся этими машинами каждый день. Для программистов, создающих такие машины, задача заключалась в том, чтобы заставить их на предельно высоком уровне научиться чему-то, что мы не знаем или не понимаем, а не программировать подобное «знание» напрямую.

Как машина может учиться?

По мере вашего взросления велосипед так и не научился самостоятельно приезжать домой. Пишущие машинки так и не научились предлагать подходящее слово или находить орфографические ошибки. Механическое поведение стало синонимом фиксированности, предсказуемости и неизменности. Долгое время само словосочетание «самообучающаяся машина» было противоречием, и все же сегодня мы с радостью говорим о гибких, адаптивных и даже любознательных машинах. В области искусственного интеллекта считается, что машина учится, если она совершенствует свое поведение по мере получения нового опыта. Чтобы лучше понять, как именно машины могут выполнять подобные действия, обратите внимание на функцию автозаполнения в вашем смартфоне. Если активировать данную функцию, то программа начнет предлагать возможные варианты для завершения набираемого вами слова. Но как система понимает, что именно вы хотите напечатать? Ведь программист не разрабатывал модель под ваши нужды и не придумывал сложные грамматические правила языка. Получается, что алгоритм предлагает слово, которое с наибольшей вероятностью будет использовано следующим. Программа «узнает» это из статистического анализа огромного объема существующего текста. Данный анализ в основном проводится при создании функции автозаполнения, в то же время вы можете дополнить систему собственными данными. Программа в буквальном смысле изучает ваш стиль. Один и тот же базовый алгоритм может работать с разными языками, адаптироваться к разным пользователям и добавлять в себя слова и фразы, которые никогда раньше не видел, такие как ваше имя или название улицы. Качество предложений главным образом зависит от качества и количества данных, на которых обучалась система. Чем больше вы в ней работаете, тем больше она узнает об используемых вами словах и выражениях. Система совершенствует

свое поведение на основе опыта, что и является определением обучения. Такую систему придется «познакомить» с сотнями миллионов фраз, то есть натренировать ее на нескольких миллионах документов. Это трудно для человека, однако совершенно несложно для современного оборудования.

Боты в переводе Алгоритмы, лежащие в основе машинного обучения, существуют уже много лет. Новизна заключается в том, что теперь у нас достаточно данных и вычислительной мощности для развития этих методов. Возьмем для примера языковой перевод. На этапе зарождения ИИ лингвисты создавали системы перевода на основе двуязычных словарей и систематизированных в коде правил грамматики. Но такие системы не оправдали себя, потому как закодированные правила не были адаптивными. Например, во французском языке прилагательное идет после существительного, а в английском – перед существительным, кроме ряда случаев-исключений (к примеру, «the light fantastic»). Технология перевода отошла от правил, предписанных людьми, в пользу вероятностных рекомендаций, получаемых в процессе обучения на реальных примерах. В конце 1980-х годов IBM использовала машинное обучение компьютера англо-французскому переводу путем предоставления ему двуязычных документов, подготовленных канадским парламентом. Как и в Rosetta Stone, данные документы содержали в себе несколько миллионов примеров предложений, переведенных на оба языка. Система IBM определила взаимосвязи между словами и фразами в обоих языках и повторно использовала их для создания нового перевода. Но результаты все еще содержали очень много ошибок – системе нужно научиться обрабатывать больше данных. «А затем появился Google, который в буквальном смысле скормил этой

системе весь Интернет»,  – рассказывает Виктор Майер-Шенбергер из Института интернета Оксфордского университета. Каждый день Google переводит больше текста, чем расшифровывают все профессиональные переводчики мира за год. Свою работу над сервисом перевода Google, как и IBM, начинал с обучения алгоритмов сопоставлению документов на разных языках. Но затем пришло осознание того, что результаты перевода можно значительно улучшить, если научить систему тому, как на самом деле люди разговаривают на русском, французском или корейском. Google обратился к огромной сети проиндексированных слов, объем которой стремительно приближался к фантастической библиотеке из рассказа Хорхе Луиса Борхеса «Вавилонская библиотека». Google-переводчик с английского на французский может сравнить свой начальный вариант перевода с каждой фразой на французском языке, размещенной в Интернете. В качестве примера Майер-Шенбергер приводит английское слово light (свет, легкий). Система должна понять, как именно перевести это слово на французский: lumière (свет) или léger (легкий). Google обучался тому, что бы выбрали сами французы. Переводчики от Google и Microsoft (тот самый, который Рик Рашид продемонстрировал в Китае) обучались в примерно одинаковых условиях: не зная о языке ничего, кроме относительной частоты использования огромного количества последовательностей слов. И все же Google может на достаточно хорошем уровне переводить на 135 письменных языках, начиная африкаанс и заканчивая зулу. Эти ИИ проводят пословный анализ текста, который сводится к расчету вероятности следующего используемого варианта. Для них слова – это набор вероятностей. Основы алгоритма перевода более или менее понятны. Сложность возникает из-за большого количества сопоставлений, которые происходят между огромными объемами данных. Например, для того чтобы выстроить прогноз об окружающей обстановке, беспилотные автомобили Google каждую секунду собирают почти

гигабайт данных. А Amazon нет равных по части того, как заставить людей купить больше, – алгоритм подбирает рекомендации товаров, основанные на миллиардах сопоставлений из миллионов других заказов. Перевод речи Рашида – то есть обработка того, что он сказал голосом, с дальнейшим мгновенным переводом – лишний раз показывает, насколько мощным может быть статистический ИИ. «Эти системы не творят чудеса», – говорит Крис Бишоп из Microsoft. «Но мы не перестаем удивляться тому, как далеко можно продвинуться, просто просматривая статистику очень больших наборов данных».

«Вам также может понравиться» Если такой подход к разумности кажется вам обманом, поскольку сам алгоритм не является разумным, то готовьтесь – худшее еще впереди. Следующим по сложности шагом после функции автозаполнения идет агент по выдаче рекомендаций. Вспомните свой любимый онлайн-магазин. Изучив ваши предыдущие заказы или даже просто историю просмотров на сайте, этот агент постарается отыскать в своем каталоге товары, которые с наибольшей вероятностью смогут вас заинтересовать. Они подбираются путем анализа базы данных, содержащей миллионы транзакций, поисковых запросов и товаров. Также впечатляет и количество параметров, которые потребуется извлечь из обучающего набора: в каталоге Amazon зарегистрировано свыше 200 миллионов клиентов и 3 миллионов книг. Сопоставление пользователей с товарами на основании предыдущих операций требует статистического анализа колоссального масштаба. Как и в случае с функцией автозаполнения, традиционного понимания здесь не требуется, так как для подбора рекомендаций не нужны психологические модели покупателей или литературная критика новел. Поэтому неудивительно, что возникает

закономерный вопрос: а следует ли вообще называть таких агентов «разумными»? Тем не менее никаких сомнений о самом «обучении» быть не может: с накоплением опыта такие агенты действительно становятся лучше.

Имитация поведения Многие вещи со временем усложняются. Онлайн-магазины отслеживают не только покупки, но и пользовательское поведение на сайте. Они могут собирать различную информацию, например товары, которые вы сначала положили в корзину, а затем удалили из заказа, или артикулы, которые вы оценили или добавили в список пожеланий. Есть и другая информация, которую можно получить из одной покупки: время суток, адрес, способ оплаты и даже время, потраченное на оформление заказа. Разумеется, все это подсчитывается для миллионов пользователей. Поскольку поведение покупателей, как правило, достаточно однообразно, данный массив информации можно использовать для постоянного совершенствования работы агента. Ряд алгоритмов обучения способен динамически адаптироваться к новым условиям, другие же периодически переучиваются в автономном режиме. Но все они используют множество сигналов, полученных в результате наших действий, для коррекции своего поведения. Таким образом они постоянно изучают и отслеживают наши предпочтения, поэтому неудивительно, что временами мы покупаем совершенно не тот товар, которые изначально планировали. Интеллектуальные агенты могут даже предлагать какие-то товары, чтобы отследить нашу реакцию. Такой способ получения информации по своей ценности ничем не уступает оформлению покупки. Интернет-магазины выступают в роли автономных обучающих агентов, постоянно находящихся на тонкой грани между изучением и эксплуатацией покупателей.

Изучение того, что агенты не знали о вас, может оказаться столь же важным, как и фактическая продажа товара. Проще говоря, агенты любопытны. Эта же стратегия используется спам-фильтрами и другими приложениями, которые должны изучить ваши предпочтения для прогнозирования дальнейших действий. В один прекрасный день техника для дома будет также заинтересована в прогнозировании ваших следующих действий. Это лишь простейшие примеры. Используя такие же или схожие статистические методы в разных частях и масштабах системы, компьютеры могут научиться распознаванию лиц, транскрибированию речи и переводу текста с одного языка на другой. Если верить некоторым компаниям, специализирующимся на онлайн-знакомствах, то и здесь можно задействовать агентов по подбору потенциальных партнеров. Иными словами, агенты способны подражать сложному человеческому поведению, которое мы не можем полностью смоделировать, и делают они это совершенно не так, как мы.

Новые ситуации Машинное обучение – это не только анализ поведения в уже произошедших событиях. Иногда ИИ приходится сталкиваться с новыми ситуациями. Как помочь новому клиенту? Кому порекомендовать новую книгу? В данном случае вся хитрость в том, чтобы научить машины обобщению на основании данных от схожих клиентов или товаров. Даже новый клиент, который никогда не пользовался данным сервисом, оставляет небольшой информационный след (например, свое местоположение или адрес электронной почты). Способность к обнаружению и использованию сходств иногда называют «распознаванием образом», причем такая способность важна не только на этапе «холодного» старта. На самом деле обобщение (то

есть обнаружение закономерностей и сходств) является основой разумного поведения. Что мы имеем в виду, говоря, что два элемента похожи? Книгу можно описать по количеству страниц, языку, тематике, цене, дате выхода, автору и даже индексу ее читабельности. Если говорить о покупателях, то нужными характеристиками могут считаться возраст, пол или местоположение клиента. В машинном обучении такие характеристики иногда называют «признаками» или «сигналами». При достаточности данных ими можно пользоваться для поиска похожих объектов. Таким образом, машина может делать общие выводы об одной ситуации и применять их к другой, благодаря чему совершенствуется ее опыт. Одна из ключевых проблем машинного обучения – отбор правильных признаков. Цена книги, к примеру, может быть важнее использованного шрифта. А по мере обработки более сложных элементов, таких как изображения, данная проблема становится еще более актуальной. Если сравнить две фотографии на паспорт, снятые с разницей в одну минуту, то на уровне необработанных (сырых) пикселей данные изображения не будут идентичными. Этого достаточно, чтобы компьютер рассматривал их как два совершенно разных изображения. Нам бы хотелось, чтобы компьютер оценивал такие изображения по более подходящим критериям, нежели пиксели. Тогда компьютер не будет сбит с толку небольшими и незначительными изменениями в изображении. Так какими же признаками изображения необходимо руководствоваться для распознавания одного и того же лица на разных фотографиях? Это оказалось невероятно сложной задачей, усугублявшейся при изменении освещения, положения объекта и фона, сопутствующих натурным съемкам. Запрограммировать все варианты напрямую в компьютер чрезвычайно трудно, поэтому инженеры снова обратились к машинному обучению. Один из таких методов, называемый глубоким обучением, продемонстрировал в ряде областей

наилучшие результаты. Как и в предыдущих примерах, глубокое обучение сводится к использованию больших данных для оценки миллионов параметров.

Слои обучения Одной из самых нашумевших фраз в исследованиях ИИ является, пожалуй, «глубокое обучение». Несмотря на непривычное название, это всего лишь еще один подход, основанный на больших данных. Именно он помог достичь столь впечатляющих результатов в исследованиях ИИ за последние годы. Глубокое обучение использует технологию под названием «нейронная сеть». Это программный модуль, разработанный для имитации мириад нейронов человеческого мозга, соединенных синапсами, которые и реализуют его беспрецедентную вычислительную мощность. Многие простые процессоры нейронной сети соединены так, что значения на выходе одного процессора могут выступать в роли входных значений для других. Такие входные значения ранжируются по степени своего влияния. Суть в том, что сеть «говорит» сама с собой, используя выходные значения для изменения «входных весов» – то есть обучается, как и мозг. За несколько коротких лет нейронные сети обогнали устоявшиеся технологии в звании «лучшего способа решения сложных проблем восприятия»: от расшифровки медицинских снимков и распознавания лиц до управления автомобилями. Рассмотрим задачу: в наборе фотографий необходимо выбрать все изображения футбольного матча. Конечно же, программист может написать алгоритм для поиска типичных признаков (например, футбольные ворота), но это слишком большая работа. Нейронная сеть может выполнить работу за вас путем первоначального подбора нужных признаков, таких как границы объектов на изображениях, с последующим переходом к распознаванию самих объектов и даже действий. Например, мяч, поле и игроки с высокой долей

вероятности указывают на футбольный матч. Каждый узел слоя ищет определенные признаки на разных уровнях абстракции. Разница между выходным значением и правильным ответом будет подаваться обратно в сеть для соответствующей корректировки весовых коэффициентов до тех пор, пока не будет постоянно (или большую часть времени) выходить правильный ответ. Процесс, при котором система обучается, получая положительное или негативное подкрепление за свои действия, называется «обучение с подкреплением». Для оптимизации способа сбора подходящих признаков в данные программисту требуется только настроить количество узлов и слоев. Однако, поскольку довольно часто нельзя объяснить, как именно нейронная сеть делает то, что делает, такой «подбор» значений сводится к методу проб и ошибок. Основанные на абстрактной аналогии с корой человеческого мозга, нейронные сети теперь превратились в сложные математические объекты. В своих ранних воплощениях они не были особенно полезными, но с современным оборудованием и гигантскими наборами данных нейронные сети обрели новую жизнь и оказались способны обеспечить лучшую результативность при выполнении определенного круга задач восприятия (в основном, в областях зрения и речи). Как правило, глубокое обучение используется в составе более крупных систем машинного обучения.

Под капотом А теперь представьте себе, что все эти «винтики и шестеренки» машинного обучения могут одновременно применяться ко многим частям одной и той же системы. Поисковая система пользуется ими, чтобы научиться тому, как правильно выполнять ваши запросы, оценивать подходящие ответы, переводить документы… все это делается помимо выдачи результатов поиска и выбора правильной рекламы для показа. И это лишь то, что происходит на поверхности.

Скорее всего, неизвестная для пользователей система будет также выполнять тесты для сравнения производительности всевозможных методов на разных случайных подмножествах пользователей. Это еще называется А/В-тестированием. Каждый раз при работе с онлайн-сервисом вы предоставляете ему исчерпывающую информацию о качестве методов, которые в данный момент тестируются за кулисами. И все это вы делаете в дополнение к прибыли, которую компания получает за ваши клики по рекламе и покупку товаров. Несмотря на кажущуюся простоту таких механизмов, результатом их одновременного и постоянного использования в широком масштабе является чрезвычайно адаптивное поведение, которое нам кажется весьма разумным. AlphaGo – ИИ от Google, играющий в го,  – обучился своим выигрышным стратегиям, изучив миллионы прошлых партий, а затем сыграв с различными версиями самого себя миллион последующих партий. Это впечатляющее достижение. Тем не менее стоит лишь разобраться в скрытом механизме, лежащем в основе ИИ, как возникает чувство разочарования. Системы ИИ генерируют адаптивное и целенаправленное поведение без потребности в самосознании, а ведь именно его мы обычно считаем признаком «настоящего» интеллекта. Лавлейс может отклонить предложения ИИ как неоригинальные, но пока философы продолжают спорить, область ИИ продолжает двигаться вперед.

Новый способ мышления Использование в ИИ подхода, основанного на больших данных, теперь близко к внедрению во все сферы нашей жизни, перестав ограничиваться только лишь интернет-магазинами.

Например, Институт судебных экспертиз Нидерландов в Гааге через месяц после выступления Рашида воспользовался системой машинного обучения для поиска подозреваемого в убийстве, который в течение 13 лет скрывался от полиции. Программа смогла проанализировать и сравнить колоссальные объемы образцов ДНК, что потребовало бы колоссального времени для выполнения вручную. Также к машинному обучению прибегают страховая и кредитная отрасли, используя алгоритмы для создания профилей рисков отдельных лиц. Медицина обращается к статистическому ИИ для сортировки наборов генетических данных, слишком объемных для анализа человеком. Watson (IBM), DeepMind (Google) и подобные им системы могут диагностировать болезни. Анализ больших данных позволяет увидеть то, что мы зачастую упускаем. Такой ИИ может узнать нас даже лучше, чем мы сами. Но для этого потребуется принципиально новый способ мышления. В период зарождения ИИ высоко ценилось понятие «объяснимость», то есть способность системы показать, как именно она пришла к определенному решению. Когда система символического мышления на основе правил делает свой выбор, человек может отследить всю логическую цепочку и понять «ход мыслей» ИИ. И все же логические выводы, к которым приходит современный ИИ, основанный на больших данных, представляют собой сложный статистический анализ огромного количества точек данных. Это означает, что мы отказались от «почему» в пользу «что». Даже если

технический специалист с высокой квалификацией постарается воспроизвести логику выполнения, на выходе может получиться нечто бесполезное. По словам Криса Бишопа из Microsoft, мы не сможем понять, почему система принимает именно это решение, поскольку в своем решении она не руководствуется набором правил, понятных для человека. Но, по его мнению, это достойный компромисс для получения работающей системы. Ранние искусственные «умы» могли быть прозрачными для человека, но они терпели неудачу. Многие критиковали новый подход, однако Бишоп и другие уверены, что пришло время перестать ждать от системы человеческих объяснений. «Объяснимость – это социальное соглашение,  – говорит Нелло Кристианини.  – Когда-то давно мы считали, что это важно. Сейчас же мы решили иначе». Питер Флэч из Бристольского университета пытается научить этому принципиально новому образу мышления своих студентов с направления информатики. Программирование – это абсолют, а машинное обучение является в нем степенью неопределенности. Он считает, что нам стоит проявить больше скептицизма. Например, если Amazon рекомендует вам книгу, то он делает это благодаря машинному обучению или лишь потому, что данные книги плохо продаются? А когда Amazon говорит, что похожие люди купили такие книги – что именно система имеет в виду под «похожими людьми» и «такими книгами»?

Крупные ставки Опасность скрыта в том, что мы перестаем задавать вопросы. Сможем ли мы настолько привыкнуть к сделанному за нас выбору, что перестанем это замечать? Теперь, когда интеллектуальные машины начинают принимать непостижимые решения по ипотечным кредитам, диагностике болезней и виновности в совершении преступлений, ставки становятся еще выше.

Что если медицинский ИИ решит, что через несколько лет вы начнете сильно пить? Оправдают ли в таком случае врачей за отказ в трансплантации? Сложно ли будет оспорить решение по вашему делу, если никто не знает, как оно было получено? Некоторые люди могут доверять ИИ куда больше других. «Люди слишком охотно принимают все, что нашел алгоритм, – говорит Флэч. – Компьютер говорит "нет". В этом вся проблема». А вдруг уже где-то есть интеллектуальная система, которая прямо сейчас дает оценку вашей личности – вам настоящему и вам будущему. Вспомните тот случай с Латанией Свини из Гарвардского университета. Однажды она с удивлением обнаружила, что ее поисковый запрос в Google сопровождался рекламными модулями с текстом «Вас когда-нибудь арестовывали?». Для белых коллег такая реклама не показывалась. Так было проведено исследование, показавшее, что система машинного обучения, использовавшаяся в поиске Google, случайным образом оказалась расистом. Глубоко в веренице сопоставлений имена, типичные для чернокожих людей, были связаны с рекламными объявлениями об арестах.

Крупные промахи В последние годы у нас было несколько крупных промахов. В 2015 году Google пришлось извиняться за то, что один из его продуктов автоматически отметил фотографии двух чернокожих людей как «горилл». Год спустя компании Microsoft пришлось отключить чат-бота по имени Tay, поскольку он выучил оскорбительные ругательства. В обоих случаях это были не проблемы с алгоритмом, а ошибки в подборе обучающих данных. 2016 год тоже отметился: произошел первый несчастный случай, связанный с беспилотным автомобилем. Тогда водитель перевел автомобиль Tesla в режим автопилота, и система не заметила трейлер на дороге. Дорожные условия были необычными: белое

препятствие на фоне светлого неба, – поэтому система машинного зрения просто допустила ошибку. С выходом все большего количества компаний на мировой рынок вероятность возникновения подобных инцидентов лишь возрастает. Существует бесчисленное количество историй, которые не попадают в новости, потому что системы ИИ работают так, как нужно. Однако мы не можем узнать, делают ли подобные системы именно то, что мы от них хотим. Нам нужно уделять пристальное внимание типу данных, которые мы передаем системе, ведь мы поручаем машинам принятие все более сложных решений. Переосмысления требует не только технология, но и ее использование в нашей повседневной жизни. В эпоху больших данных многие люди обеспокоены конфиденциальностью информации. Но Виктор Майер-Шенбергер из Оксфордского института интернета считает, что на самом деле беспокойство должно вызывать неправильное использование вероятностного прогноза. «В данной сфере существуют серьезные этические дилеммы», – говорит он. Чтобы ориентироваться в этом мире, нам потребуется изменить представления о том, что же означает искусственный интеллект. Знаковые интеллектуальные системы, которые мы уже создали, не играют в шахматы и не планируют гибель рода человеческого. «Они не похожи на HAL 9000»,  – рассказывает Нелло Кристианини, профессор искусственного интеллекта в Бристольском университете. Они прошли долгий путь от «сопровождения» нас в Интернете и стимулирования продаж товаров в сети до обещаний предсказать наше поведение еще до того, как мы сами о нем узнаем. От таких систем никуда не скрыться. Нам требуется смириться с тем, что мы не сможем понять, почему принимаются те или иные решения, и научиться принимать выбор системы таким, какой он есть – рекомендация, математическая вероятность. Интеллектуальные машины не управляются оракулом.

Когда люди мечтали о создании ИИ по своему образу и подобию, они ожидали увидеть разумные машины, которые будут с человеком на равных. ИИ, который есть сейчас, – он как пришелец. Это форма разума, с которой мы никогда ранее не сталкивались.

Сможем ли мы покопаться в «мозгах» ИИ? Интересно, о чем думает ИИ? Чтобы понять чье-то поведение, нужно знать, о чем этот человек думает. То же самое и с искусственным интеллектом. Новая техника по созданию снимков нейронных сетей в процессе обнаружения проблемы позволяет лучше понять принципы работы сетей – это приведет к повышению эффективности и надежности ИИ. За последние несколько лет алгоритмы глубокого обучения, основанные на нейронных сетях, достигли прогресса во многих областях ИИ. Проблема в том, что мы не всегда знаем, как именно все происходит. «Система глубокого обучения – это настоящий "черный ящик",  – говорит Нир Бен Зрихем из Техниона (Израильского технологического института) в городе Хайфа. – Если система работает – отлично. Если же нет, то вам крупно не повезло». Нейронные сети – это больше, чем сумма своих компонентов. Они состоят из множества простых элементов – искусственных нейронов. «Вы не можете указать на какую-то конкретную область в сети и сказать, что весь интеллект запрятан там», – говорит Зрихем. Но изза сложности соединений нейронов невозможно проследить шаги, которые выполняет алгоритм глубокого обучения для достижения нужного результата. В таких случаях сама машина действительно больше похожа на оракула, а ее результаты принимаются на веру. Для наглядной демонстрации своей точки зрения Зрихем с коллегами создал образы глубокого обучения в процессе работы. По их мнению, подобная техника похожа на функциональную МРТ для компьютеров, поскольку фиксирует активность алгоритма в процессе решения какой-то задачи. Подобные образы позволяют

исследователям отследить различные этапы работы нейронной сети, включая тупиковые ситуации. Чтобы получить нужные динамические образы, команда поставила перед нейронной сетью задачу – сыграть в три классические игры Atari 2600: Breakout, SeaQuest DSV и Pac-Man. Пока алгоритм проходил каждую из игр, ученые смогли сделать 120  000 снимков. Затем они разметили данные, используя технику, позволяющую сравнивать одинаковые моменты при повторяющихся попытках в игре. Результаты похожи на сканы головного мозга человека (см. рис. 2.1), но каждая точка представляет собой снимок одной игры в отдельный момент времени. Различные цвета показывают, насколько успешно действовал ИИ в данный момент игры. Возьмем, например, Breakout. Здесь игрок с помощью ракетки и мяча должен пробить дыру в «стене» из ярких блоков. На одном из снимков команда исследователей смогла обнаружить четкую область в форме банана. Эта область повторялась каждый раз, когда алгоритм пытался пройти через пробитый туннель из блоков, чтобы закинуть мяч на вершину – успешная тактика, которую нейронная сеть придумала самостоятельно. Анализ этапов прохождения игры позволил исследователям проследить использование алгоритмом различных тактик для победы в игре. Создание идеальной игровой стратегии – это, конечно, интересно. Но такие сканы помогут нам отточить эффективность алгоритмов, предназначенных для решения реальных задач. Например, наличие изъянов в алгоритме информационной безопасности означает, что при определенных ситуациях систему можно будет легко обмануть, или же алгоритм для одобрения заявки на банковский кредит может выказывать предвзятость к определенной расе или полу. При использовании данной технологии в реальном мире нужно четко понимать, как все работает и что может пойти не так.

Символы наносят ответный удар Нет сомнений в том, что машинное обучение через нейронные сети имело ошеломительный успех. И все же оно не идеально. Обучение системы для выполнения конкретной задачи происходит медленно, к тому же система не может повторно использовать полученные знания для выполнения другой задачи. От этой проблемы страдает весь современный искусственный интеллект. Компьютеры могут обучаться и без нашего руководства, но приобретаемое таким образом знание совершенно бесполезно за пределами решаемой задачи. Они подобны детям, которые, научившись пить из бутылочки, не понимают, что же делать с кружкой.



Рис. 2.1. Результат «сканирования мозга» нейронной сети





Мюррей Шанахан с коллегами из Имперского колледжа Лондона пытаются решить эту проблему старомодным способом, при котором техники машинного обучения отходят на задний план. Идея

Шанахана – воскрешение символического ИИ и объединение его с современными нейронными сетями. Символический ИИ так и не смог достичь успеха, поскольку описание всего необходимого ИИ вручную оказалось непосильной задачей. Современный ИИ смог преодолеть эту трудность, обучаясь собственным представлениям о мире. Однако эти представления невозможно передать в другие нейронные сети. Работа Шанахана направлена на то, чтобы реализовать передачу определенных знаний между задачами. Награда этой разработки – ИИ, который быстро учится и требует меньше данных о мире. Андрей Карпати, исследователь машинного обучения в OpenAI, написал в своем блоге: «Вообще-то мне не нужно несколько сотен раз разбивать машину об стену, чтобы научиться медленно избегать столкновения».

Высший образ мышления Если мы хотим создать компьютер с интеллектом человека, то почему бы не создать искусственный мозг? В конце концов, люди – это наша лучшая иллюстрация разумности, а нейробиология дает нам множество новых знаний о принципах хранения и обработки информации.

Человеческий мозг представляет собой сеть из 100 триллионов синапсов, соединяющихся 100 миллиардами нейронов, большинство из которых изменяют свое состояние от 10 до 100 раз в секунду. Подобная структура мозга позволяет нам справляться с такими задачами, как распознавание объектов на картинке. С другой стороны, суперкомпьютер имеет порядка 100 триллионов байт памяти, а его транзисторы могут выполнять операции в 100 миллионов раз быстрее, чем мозг. Такая архитектура делает компьютер более подходящим для быстрой обработки четко определенных задач. Однако некоторые задачи решаются эффективнее именно при «мозговой» обработке, даже с учетом сопутствующих недостатков. Например, неопределенным задачам (таким как распознавание лиц) не обязательно нужны высокоточные схемы распознавания по точному маршруту. Некоторые исследователи изучают мозгоподобные аппаратные архитектуры для имитации маломощных потребностей мозга. Мозг выполняет все вычисления на примерно 20 Вт, что эквивалентно очень тусклой лампочке. Суперкомпьютеру на такие же вычисления требуется 200 000 Вт. Другие группы ученых стремятся изучить способности мозга по обработке и хранению информации в одном месте. В настоящее время для этих целей создаются проекты по созданию новых «мозгоподобных» компьютерных схем: параллельных, а не

последовательных, аналоговых, а не цифровых, медленных и энергосберегающих.

Интуитивное мышление Люди упорно не способны соответствовать идеалу разумности. При принятии решений мы допускаем одни и те же ошибки, и на нас легко влияет информация, не относящаяся к делу. Если же мы поспешно принимаем какое-то решение без должного размышления, то считаем, что «доверяемся интуиции». Раньше нам казалось, что отсутствие таких «особенностей» человека делает компьютеры лучше, однако недавние исследования в области когнитивных наук говорят нам об обратном. Для людей характерны два взаимодополняющих процесса принятия решений. Первый – медленный, осмотрительный, основанный на логике. И второй – быстрый, импульсивный, способный к сопоставлению текущей ситуации с предыдущим опытом, что позволяет нам быстрее прийти к каким-либо выводам. Второй тип как раз и является залогом столь эффективного человеческого интеллекта. Несмотря на всю логичность и осмотрительность, у рационального процесса есть и другая сторона – принятие решений требует больших затрат времени и энергии. Допустим, встречная машина начинает перестраиваться в вашу полосу. Вместо того, чтобы пускаться в длительные рассуждения и вычисления оптимальной, но явно запоздалой стратегии, вы должны действовать незамедлительно: воспользоваться звуковым сигналом, нажать на тормоз или перестроиться. Такой «ускоренный» процесс подходит для некритических ситуаций. Если тратить слишком много сил на вычисление оптимальных решений для таких простых вещей, как выбор между темно-синей или темно-голубой рубашками, то очень скоро у вас не останется ни времени, ни сил для принятия важных решений. Так должен ли ИИ включать в себя интуитивный компонент?

Многие системы ИИ состоят из двух частей. Первая моментально реагирует на ситуацию, а вторая проводит более детальные логические рассуждения. Некоторые роботы создавались с низкоуровневыми слоями, являющимися строго реактивными, и более высокоуровневыми слоями, подавляющими реактивные действия и превращающими их в целенаправленное поведение. Этот подход доказал свою полезность, например когда идущим роботам нужно было преодолеть неровную поверхность. Была и другая попытка замотивировать ИИ к принятию более правильных решений путем наделения систем эмоциями. Например, если автономный робот несколько раз безрезультатно пытается выполнить одно и то же действие, то реакция «разочарования» должна эффективно побудить его к поиску других вариантов. Создание машин, имитирующих эмоции,  – непростая задача. Марвин Минский, один из создателей ИИ, считает, что эмоции возникают не как следствие одной лишь реакции мозга, а как взаимодействие, включающее в себя множество областей мозга и связующее мозг с телом. Эмоции побуждают нас выбирать те или иные решения. Поэтому идея эмоционально мотивировать части программы, вероятно, подготовит почву для создания человекоподобного интеллекта. –  Люди редко застревают в какой-то проблеме надолго, потому что мы знаем множество способов, как справиться с каждой ситуацией или задачей, – говорит Минский. – Каждый раз, когда ваш излюбленный метод терпит неудачу, вы ищите другой подход. Например, если вам скучно выполнять какую-то работу, то вы можете либо поискать кого-то, кто выполнит ее за вас, либо разозлиться на того, кто поручил вам эту задачу. Мы можем назвать такие реакции эмоциональными, однако они помогают нам справляться с появляющимися проблемами.

Небрежные биты

Кришна Палем, ученый из Университета Райса в Хьюстоне (штат Техас), является одним из немногих исследователей, которые создают энергосберегающие «мозгоподобные» компьютеры. Его устройства не удостоятся наград за точность – большинство приборов не смогут даже правильно сосчитать сумму элементов. Для них 2 + 2 может с легкостью оказаться 5. Но не позволяйте запутать себя погрешностью в вычислениях. Палем создает машины, которые смогут стать новым рассветом для компьютерных вычислений. Неточность слабо ассоциируется с компьютерами. С тех пор, как в 1930-х годах Тьюринг установил основополагающие принципы компьютерных вычислений, машины стали приверженцами точности. Их создавали по принципу следования пошаговым инструкциям с точным и повторяемым воспроизведением последовательности. Они не должны были допускать ошибок. Но, возможно, нам следует разрешить компьютерам ошибаться. Это может оказаться лучшим способом для раскрытия новой волны умных устройств и вывести из тупика высокопроизводительные вычисления. Так мы сможем выполнять сложное моделирование, выходящее за рамки возможностей современных суперкомпьютеров,  – модели, которые лучше предсказывают изменение климата, помогают проектировать эффективные автомобили и самолеты, а также раскрывают тайны образования галактик. Такие модели смогут даже раскрыть самую главную загадку всего сущего. Для этого им нужно позволить нам смоделировать человеческий мозг. До сих пор нам приходилось соглашаться на компромисс между производительностью и энергоэффективностью: компьютер может быть либо быстрым, либо маломощным, но не все сразу. Это означает не только потребность более мощных смартфонов в улучшенных батареях, но и то, что суперкомпьютеры сами станут источником энергии. Экзафлопс-машинам следующего поколения, способным выполнять 1018 операций в секунду, нужно будет потреблять до 100 МВт – это мощность небольшой электростанции.

Итак, гонка компьютеров по достижению большего с меньшими затратами началась. Один из способов – сократить время, которое компьютер тратит на выполнение кода. Чем меньше времени затрачено, тем меньше энергии потреблено. Программистам нужно найти способ получения желаемых результатов быстрее. Возьмем классическую задачу коммивояжера: найти кратчайший маршрут, проходящий через несколько городов. Известно, что решить данную задачу довольно трудно, учитывая тот факт, что количество маршрутов при увеличении количества городов возрастает в геометрической прогрессии. Палем утверждает, что зачастую программисты довольствуются маршрутом, который и наполовину не дотягивает до «лучшего», поскольку дальнейшее улучшение маршрута отнимает слишком много компьютерного времени. В последней версии этого метода предлагается с помощью машинного обучения получать приблизительный результат выполнения отдельных кусков кода. Тогда в процессе работы с программой этот результат будет использоваться каждый раз вместо фактического выполнения исходного фрагмента кода. Но экономия энергии за счет урезания приложений совсем незначительна. Для настоящей экономии энергии потребуется изменить принципы работы оборудования. Компьютеры могут сэкономить огромное количество энергии, просто перестав эксплуатировать свои транзисторы на полную мощность. Однако в данном случае придется пожертвовать точностью. Команда Палема пытается создать компьютеры, которые смогут ошибаться в расчетах в допустимых пределах. Возьмите любой кажущийся вам хорошим алгоритм, и он решит ту же задачу иначе, поскольку обладает другой физической системой под капотом.

Включение/выключение

Стандартные компьютерные микросхемы используют кремниевые включения, которые называются «каналами». Они выступают в роли переключателя между включенным (1) и выключенным (0) состоянием. Переключение контролируется вентилем, который останавливает прохождение тока через канал до подачи напряжения. Затем вентиль открывается, как шлюз на дамбе, пропуская ток. Но эта технология комплементарных элементов «металл-оксид-полупроводник» (КМОП-структура) хорошо работает только в том случае, если имеет надежный пятивольтовый источник питания. Начните понижать напряжение, и канал потеряет стабильность – будет иногда переключаться, а иногда – нет. В 2003 году Палем, перешедший в Технологический институт Джорджии в Атланте, понял, что грядут неприятности. Стало ясно, что способность электронной промышленности к удвоению количества транзисторов в микросхеме каждые 18–24 месяцев (тенденция к миниатюризации, известная как закон Мура) подходит к концу. Миниатюризация приводила к ошибкам на уровне микросхем. Во многом это было связано с перегревом, радио- или перекрестными помехами между микросхемами с плотной компоновкой. Теперь на первый план вышла проблема потребления энергии. Что если бы можно было приспособить такую нестабильность системы для экономии энергии? Ответ Палема заключался в попытке разработать вероятностную версию КМОП-структуры с намеренной нестабильностью. Команда Палема создала цифровые схемы, в которых старшие разряды, представляющие собой точные значения, получали пятивольтовое питание. Младшие разряды подпитывались от 1 вольта. Таким образом можно было исказить до половины битов, представляющих число. Получалось, что разработанная Палемом версия сумматора – общей логической схемы, складывающей два числа, – не работала с обычной точностью. «Когда сумматор складывает два числа, он дает достаточно правильный, но не точный ответ,  – говорит он.  – Но с

точки зрения использования энергии это – наиболее дешевое решение».

Неидеальный пиксель Переложите эту модель на миллиарды транзисторов, и вы получите существенную экономию энергии. Хитрость заключается в том, чтобы выбрать приложения, для которых не особо важны младшие разряды. Например, цвет пикселя представляется большим диапазоном чисел. В одном эксперименте Палем с коллегами создали цифровой видеодекодер, который при преобразовании пиксельных данных в экранные цвета неточно интерпретировал младшие разряды. Они обнаружили, что зрители заметили лишь небольшое ухудшение качества изображения. «Человеческий глаз многое усредняет,  – поясняет Палем.  – Подумайте о том, как мы воспринимаем иллюзии. Мозг выполняет колоссальную работу по достраиванию изображения». Воодушевленные этим успехом, исследователи из Университета Райса переключились на другую сферу применения, затрагивающую органы чувств,  – слуховые аппараты. Первые тесты показали, что неточная цифровая обработка в слуховом аппарате может вдвое снизить энергопотребление, но приводит к снижению разборчивости лишь на 5  %. Результаты показывают, что эти методы подходят для снижения энергопотребления смартфонов и персональных компьютеров, поскольку они представляют собой аудиовизуальные устройства. Многие сферы применения ИИ (например, распознавание изображений и переводы) также выиграют от использования данных методов.

Облачный атлас: улучшение климатических прогнозов

Тим Палмер, специалист по физике климата из Оксфордского университета, видит большой потенциал в том, чтобы дать компьютерам немного поблажек. Он считает, что компьютеры, основанные на идеях Палема, могут стать решением неразрешимой проблемы нашего времени: как повысить точность климатических прогнозов на будущее столетие, не дожидаясь появления новых суперкомпьютеров. «Важнейший вопрос в изменении климата отводится роли облаков, – говорит Палмер, – именно с точки зрения того, будут ли они усиливать или ослаблять последствия глобального потепления. Вы не сможете по-настоящему ответить на этот вопрос, пока не смоделируете облачную систему». А в настоящее время никто не знает, как это сделать. Современным суперкомпьютерам пока что не хватает мощности. А их преемники, появление которых ожидается в ближайшее десятилетие, будут чересчур энергозатратными. «Если верить нашим расчетам, то мощность, необходимая для подпитки такой машины, составит порядка 100 МВт», – продолжает Палмер. Это в 5–10 раз больше, чем потребляют современные суперкомпьютеры. А учитывая тот факт, что такие компьютеры не будут одним лишь воздухом, использование подобных машин может оказаться чрезмерно дорогостоящим. Суперкомпьютеры расходуют так много энергии, потому что рассчитаны на вычисления с 64-битными числами. В принципе, это должно давать большую точность. Но климатические модели включают в себя миллионы переменных, моделирующих факторы сложного взаимодействия: ветер, конвекция, температура, давление воздуха, температура океана и соленость. В результате, по словам Палмера, получается слишком много данных, что приводит к потере мощности. По его мнению, необходимо, чтобы переменные отображались в строках данных с разной длиной, в зависимости от важности этих значений в модели. Плюсы такой системы могут быть колоссальными. Современные климатические модели занимаются изучением атмосферы Земли, разбивая ее на районы площадью в 100  км в ширину и 1  км в

высоту. Палмер полагает, что при неточных вычислениях Земная поверхность будет разделяться на кубы протяженностью в 1  км – этого размера вполне достаточно для моделирования отдельных облаков. –  Выполнение 20 неточных вычислений может оказаться информативнее 10 точных, – говорит Палмер. Это объясняется тем, что в 100-километровых масштабах моделирование является приближенным отражением реальности. Вычисления могут быть точными, а сама модель – нет. Пренебрежение точностью для получения более детальной модели в итоге даст большую достоверность. – Куда важнее получить неточный ответ на точное уравнение, чем точный ответ на неточное уравнение,  – продолжает Палмер.  – Точным уравнением я действительно смогу описать физику облаков.

Степени точности Конечно же, вы не можете просто взять и отказаться от точности во всем. Задача состоит в том, чтобы выбрать, какими именно частями вычислений можно пожертвовать в большей степени. Исследователи подходят к решению проблемы по-разному. В основном они пытаются определить пороги точности в коде. В этом случае программисты могли бы сами указывать, когда и где допустимы ошибки. Затем программа выполняла бы неточные вычисления только в «безопасных» частях системы. Ряд исследователей полагает, что неточное моделирование в конечном счете поможет нам понять мозг. Например, такие суперкомпьютеры, как Blue Gene от IBM, используются для моделирования неврологических функций в The Human Brain Project («Проект человеческий мозг»). Как мы уже видели, существует огромная разница в потреблении энергии мозгом и суперкомпьютером: суперкомпьютеру нужны мегаватты, а

человеческий мозг может работать от энергии лампочки. Чем это можно объяснить? Тим Палмер с коллегами из Сассекского университета в Брайтоне, Великобритания, пытается узнать, смогут ли случайные электрические колебания вызвать вероятностные сигналы в мозге. По теории Палмера именно это и позволяет мозгу выполнять так много задач со столь малым потреблением энергии. И действительно, мозг служит отличным примером неточных вычислений для предельного снижения энергопотребления. Пока что ясно лишь одно: чтобы усовершенствовать компьютеры, необходимо их ухудшить. И если приближенные вычисления выглядят весьма сомнительной перспективой для создания будущего вычислений, то стоит вспомнить о том, что компьютеры всегда имели дело с абстракциями. Поэтому в некотором роде все вычисления являются приближенными. Просто одни компьютеры более приблизительные, чем другие.

Телесный интеллект Это очевидно настолько, что часто забывается: мы не бестелесные умы. Существуют веские основания полагать, что наш интеллект связан с тем, как мы чувствуем и взаимодействуем с миром. Вот почему некоторые исследователи ИИ постоянно настаивали на том, что разумным машинам нужны тела.

В январе 2011 года Макс Версаче и Хизер Эймс заботились о двух новорожденных: сыне Габриэле и виртуальной крысе по имени Animat. При рождении мозг Габриэля, как и всех детей, позволял ему выполнять только простейшие движения: хватать, сосать и видеть нечеткие изображения своих родителей. Все остальное зависело от самого ребенка. Animat также не отличался явной запрограммированностью. Но взаимодействие с виртуальным миром вскоре научило его различать цвета и определять окружающее пространство. Версаче и Эймс из Бостонского университета надеются, что их подход доведет машинный интеллект до той стадии, в которой роботы научатся мыслить более человечно. Вера в правильность данного подхода для развития ИИ уходит корнями в десятилетия назад. В 1980-е годы Родни Брукс из Массачусетского технологического института утверждал, что работа над ИИ велась «задом наперед». Ученые пытались запрограммировать сложные способности, хотя не знали даже, как создать элементарный интеллект, способный не врезаться в стены. По его словам, нам следовало подражать природе – она наделяет нас чувствами, позволяющими самостоятельно выживать в мире без заданного сценария. Идея Брукса сработала. В 1989 году он создал Genghis – шестиногого робота-насекомого, способного передвигаться без центральной системы управления. Его датчики в режиме реального

времени реагировали на сигналы, получаемые от взаимодействия с окружающей средой. Например, при хождении входные усилия робота менялись. Эти изменения, в свою очередь, управляли его дальнейшими движениями и помогали преодолевать препятствия, которые не были четко запрограммированы в системе. В течение следующего десятилетия исследования в области нейробиологии, когнитивистики и философии показали, что идеи Брукса нашли более широкое применение. В конце 1990-х годов Джордж Лакофф, ученый-когнитивист из Калифорнийского университета в Беркли, предположил, что человеческий интеллект неразрывно связан с тем, как именно наши чувства и тела взаимодействуют с окружающей средой. По словам Лакоффа и его единомышленников, наш «телесный интеллект» объясняет не только элементарную разумность (например, как мы учимся визуальному распознаванию объектов), но даже более сложное, абстрактное мышление. Здесь, наконец, и был сокрыт ключ к созданию сложного человекоподобного интеллекта. Существовала лишь одна проблема: сложность с модернизацией телесного ИИ. Улучшение корпуса робота, напичканного различными сенсорами, требует не только программирования дополнительных функций, но и кропотливой сборки-разборки самих сенсоров. Несмотря на все эти сложности, многие исследователи находят данную идею чрезвычайно привлекательной и не готовы от нее отказаться. В 2009 году Оуэн Холланд из Сассекского университета в Брайтоне создал человекоподобного робота Eccerobot, смоделированного по принципам, которые лежали в основе Genghis. Однако Eccerobot не демонстрировал никаких признаков разумности. Поэтому, несмотря на то, что возрастающая вычислительная мощность и подход, основанный на больших данных, смогли «модернизировать» традиционную модель ИИ, развитие телесного ИИ происходит все еще медленно. Со временем Версаче, Эймс и их команда стали приходить к выводу о том, что у теории телесности все еще есть шанс, если мы

сможем забыть о физическом теле. Благодаря новым мощным видеокартам дизайнеры видеоигр могут имитировать все что угодно, включая тело робота, среду, в которой он живет, и даже сложную физику, лежащую в основе взаимодействия робота и окружающей среды. Команда ухватилась за эти новшества с целью «обойти» фактическую телесность. Вместо того, чтобы трудиться над созданием реального тела, ученые разработали его виртуальный аналог, синтетические датчики которого могли взаимодействовать с подробно визуализированной виртуальной средой. Так, по их мнению, можно было пользоваться всеми плюсами телесного ИИ без сопутствующих недостатков. При успешном результате ученые смогли бы быстро перейти к развитию телесного интеллекта.

Интеллект животных Animat появился на свет в тот день, когда команда Версаче подключила мозг робота, состоящий из сотен нейронных моделей, наделив его, среди прочего, цветовым зрением, моторными функциями, тревожностью и т.  д., которые являлись точной имитацией биологических моделей. Это означало, что у робота отсутствовал запрограммированный список явных команд. Точно так же, например, мозг Габриэля не мог просчитать размеры кроватки, чтобы определить, оттуда лучше потянуться за игрушкой. Как и Genghis, Animat в процессе своего обучения и передвижения зависел от обратной связи, которую получал от виртуального тела, снабженного сенсорами. Данные сенсоры были схожи с теми, что находятся в сетчатке и на коже. Но в отличие от Genghis, любую часть Animat можно было усовершенствовать в мгновение ока. Окружающая среда робота подчинялась законам физики реального мира, включая гравитацию, благодаря чему Animat получал реалистичную сенсорную информацию. К примеру, свет

попадает на виртуальную сетчатку Animat, отвечающую за цветное зрение. А правильно откалиброванная сила (вода и давление воздуха) воздействует на его искусственную кожу. Различные комбинации входящих значений стимулируют реакции Animat. Виртуальный мир Animat – это гигантский голубой бассейн, окруженный множеством шестов различных цветов (см. рис.  2.2). Animat, как и настоящие крысы, ненавидит воду. Этому способствует ощущение тревожности, которое исследователи заложили в нейронные модели робота. Единственный способ избежать воды – это найти небольшой «островок», спрятанный где-то под поверхностью воды. Проверка разумности Animat сводится к тому, как быстро он научится отыскивать безопасные платформы для облегчения тревожности. Первый эксперимент оказался провальным: Animat целый час суматошно проплавал без каких-либо четких шаблонов. Затем исследователи сдались и завершили испытание. При повторном погружении Animat в воду шаблон плавания изменился. На этот раз после 45 минут плавания по новой схеме Animat смог обнаружить платформу. При выходе из воды уровень тревожности робота резко снизился, что лишь укрепило цепочку связей, приведших к достижению цели. Теперь Animat знал цвета шестов рядом с платформой и примерный путь, по которому до нее можно добраться.



Рис.  2.2. Виртуальный Animat запрограммирован так, что обладает реальным цветовым зрением крысы, ее навигационными способностями и ненавистью к воде. Единственный способ выйти из воды – найти скрытую платформу у белого шеста





В третий раз, когда Animat бросили в воду, он потратил куда меньше времени на обнаружение платформы – теперь робот искал шесты правильного цвета. На четвертой попытке Animat без колебаний поплыл прямо к платформе. Несмотря на многообещающие результаты ранних экспериментов, виртуальный мир является лишь тренировочным пространством. Настоящее тестирование наступит в тот момент, когда мозг, натренированный в виртуальной оболочке, будет пересажен в настоящее тело. Ведь, в конце концов, самоцелью исследований является робот, который сможет самостоятельно передвигаться в реальном мире.

Марсианская крыса Возможности машинного интеллекта объясняют скорый визит NASA. Марсоход с биологическим интеллектом смог бы использовать свои нейронные сети для зрения, равновесия, обхода препятствий на местности и избавления от необходимости в постоянном контроле со стороны человека. Так что команда исследователей подготовила для Animat виртуальный Марс, дополненный кратерами. Поскольку по задумке Animat обучался так же, как и его биологические сородичи, возник ряд закономерных вопросов, например: может ли Animat чувствовать боль? Ведь, в конце концов, Animat начинает с отрицательного подкрепления в качестве сильного беспокойства, а затем, по достижении скрытой платформы, получает положительную награду в форме мгновенного облегчения. Ни Версаче, ни Эймс не верили, что Animat способен к самосознанию, и все же робот был не так глуп, как кажется. Чувства

могли стать тем самым связующим звеном между разумом и самосознанием. Некоторые ученые-когнитивисты были уверены, что развитию самосознания у людей способствовали основные механизмы подкрепления: беспокойство и облегчение. «Чувство» самосознания (внутреннее переживание ярости или ощущение боли) порождается не более высоким уровнем познания, а простым взаимодействием с миром.

За пределами теста Тьюринга В тесте Тьюринга есть одна проблема – исследователи не могут договориться, что считать успешным прохождением теста. В своих работах 1950-х годов Тьюринг высказывал предположение о том, что к XXI веку компьютеры смогут проходить тест в 30 % случаев. Ктото видит в этой цифре процент экспертов, которых сможет ввести в заблуждение машина, что привело к появлению в 2014 году заголовков газет, утверждающих, что чат-бот Лондонского королевского общества смог пройти тест. Другие же считают успешным прохождением теста правильное выполнение его на 50 %.

Тем не менее даже если чат-боту удастся обмануть всех экспертов, это ничего не скажет о разумности системы по той причине, что оценка теста зависит от уровня технических знаний экспертов и выбора вопросов. Все это влияет на оценку. В результате большинство исследователей ИИ уже давно отказались от теста Тьюринга в пользу более надежных способов проверки машин. За последние несколько лет алгоритмы научились соответствовать и даже превосходить человеческие показатели в задачах, выходящих за рамки повседневного общения. –  Я трачу время на то, чтобы научить компьютеры понимать виртуальный мир, а не проходить тест Тьюринга. Мне кажется, это более быстрый путь к разумности, – говорит Эрик Лернд-Миллер из Массачусетского университета в Амхерсте. Он является одним их основателей набора данных Labeled Faces in the Wild (LFW). Коллекция, состоящая из более чем 13 000 изображений лиц и имен, взятых из Интернета, стала фактическим стандартом для тестирования алгоритмов распознавания лиц. Значительные улучшения в развитии отрасли были обусловлены аппаратными и программными достижениями в области глубокого обучения и нейронных сетей. В 2014 году Facebook опубликовал

подробную информацию о своем алгоритме DeepFace, который смог набрать точность в 97,25 % в наборе данных LFW, что лишь немного уступало среднему показателю человека (97,50 %). –  Получив такие показатели, люди поняли, что идут по правильному пути,  – говорит Лернд-Миллер. По его словам, это стало началом настоящей гонки вооружений среди крупнейших имен в технологической сфере. В 2015 году система FaceNet от Google достигла результата в 99,63  %. На первый взгляд данная цифра кажется больше «человеческой». –  Однако это не совсем так, поскольку довольно трудно точно измерить производительность человека, – добавляет Лернд-Миллер. Но можно справедливо утверждать, что машины теперь сравнимы с людьми. Крупные компании также тестируют свои алгоритмы на наборе данных под названием ImageNet (более обобщенная коллекция размеченных изображений) и соревнуются в Large Scale Visual Recognition Challenge – ежегодном конкурсе, связанном с распознаванием изображений ImageNet. У Microsoft есть собственный алгоритм, результативность которого оценивается немного выше, чем при выполнении тех же операций людьми.

Что произойдет дальше? Один из организаторов конкурса, Ольга Руссаковски из Университета Карнеги – Меллона в Питтсбурге, штат Пенсильвания, отмечает, что алгоритмы должны классифицировать изображения по принадлежности к одной категории из тысячи. Это ничтожно мало по сравнению с тем, чего могут достичь люди. По словам Руссаковски, для демонстрации истинной разумности машины должны будут формулировать выводы о более широком контексте изображения и о происходящем на снимке через секунду после создания кадра.

Последнее поколение систем распознавания изображений уже начинает это делать. При принятии решений на основе неполной информации мы стараемся подумать, что бы сделали на нашем месте другие. Некоторые исследователи полагают, что нам стоит присмотреться к покеру и прочим играм, включающим в себя создание рассуждений в условиях полной неопределенности. Такая игра для машин окажется в разы сложнее, чем шахматы. Современные покерные боты уже научились побеждать профессиональных игроков-людей в безлимитном холдеме один на один (Heads-Up No-Limit Texas Hold ’Em) в Техасе – сложнейшей форме игры. «Мне нравится использовать покер для тестирования, ведь здесь мы не стараемся придумать имитацию искусственного разума,  – говорит Туомас Сандхольм, также работающий в Университете Карнеги – Меллона.  – Для победы игроков-людей требуется настоящая разумность». Осталась ли жизнь в тесте Тьюринга? Берти Мюллер из Общества по изучению искусственного интеллекта и симуляции поведения (оно присуждает премию Лебнера) уверен, что конкурс проводится лишь как дань традиции. По его словам, будь Тьюринг жив в наши дни, он бы сам перестал считать данный тест лучшим способом для проверки разумности. Мюллер считает, что наблюдение за ИИ в различных средах справится с этим лучше, как если бы ребенка поместили в комнату, заваленную игрушками, и стали бы изучать его поведение. Все же мы еще слишком далеки от создания машин, способных перехитрить ребенка в его стихии.

Главный отличник в классе Стремительно завоевывает популярность оценка знаний по школьной программе. В 2015 году система искусственного интеллекта под названием ConceptNet пошла тест на IQ, разработанный для детей дошкольного возраста и содержащий

такие вопросы, как «Почему мы наносим солнцезащитный крем летом?». Результаты ИИ не превышали средний показатель четырехлетнего ребенка. В 2016 году система To-Robo успешно прошла аттестацию по английскому языку на основе вступительных экзаменов в национальный колледж Японии. Питер Кларк с коллегами тестировал искусственный интеллект по имени Aristo в Институте искусственного интеллекта Аллена в Сиэтле, штат Вашингтон, на теоретических экзаменах в государственных школах штата Нью-Йорк. Однако это убедило не всех. Эрнест Дэвис, ученый из НьюЙоркского университета, отмечает, что довольно часто ИИ испытывает трудности с тем, что мы считаем здравым смыслом. Исходя из этого, традиционные экзамены могут оказаться не самым лучшим способом для оценки «успеваемости» машины. Вместо этого он предлагает перейти на письменные экзамены, созданные специально для машин. Вопросы в нем будут тривиальными для людей, но слишком странными или очевидными, чтобы искать ответы на них в сети. Например: «Можно ли согнуть арбуз?»

3. Все, что вы можете делать Как ИИ перехитрил людей

Все, что вы можете делать, машина способна сделать лучше. И пусть это не совсем так, но впечатление создается именно такое. Стремительные успехи в глубоком обучении привели к появлению компьютеров, возможности которых конкурируют с нашими или даже превосходят их в различных задачах, начиная от прохождения игры и заканчивая распознаванием образов на картинках. Такие машины выполняют задачи быстрее и масштабнее, даже большой группе людей не под силу с ними тягаться. И чем чаще машины выполняют новые задачи, тем больше они узнают об устройстве нашего мира.

В игре: ИИ играет в го, покер и многое другое Одно из самых знаменитых достижений машинного обучения пришлось на 2016 год, когда алгоритм под названием AlphaGo победил южнокорейского мастера Ли Седоля в игре го. Большинство наблюдателей были уверены, что до появления ИИ такого масштаба должно пройти целое десятилетие. Игры издавна считались эталоном по оценке производительности ИИ. Победу Deep Blue от IBM над чемпионом по шахматам Гарри Каспаровым в 1997 году провозгласили первым шагом в революции ИИ.

На сей раз все происходило точно так же. Впервые AlphaGo попал в заголовки новостей несколькими месяцами ранее, когда DeepMind (компания, работающая в сфере искусственного интеллекта, которую Google купила в 2014 году) объявила, что ее ИИ победил чемпиона Европы по шахматам Фан Хуэя со счетом 5:0. Это побудило DeepMind бросить вызов Ли, считавшемуся одним из сильнейших игроков последнего времени. В то время как игра с Фаном проходила в атмосфере секретности, второй турнир сопровождался десятками камер и сотнями репортеров, стекающихся к месту событий – отелю Four Seasons в самом центре Сеула. Пока AlphaGo от Google играл партию с Ли Седолем, пресса заполнила два отдельных конференц-зала: один с английским комментатором, а второй – с корейским. И игра захватила внимание публики. В итоге AlphaGo обыграл Ли со счетом 4:1, чем поверг в шок сообщество го и вызвал изрядную шумиху в мире. Но причиной обсуждений стал не столько сам факт поражения, сколько то, как именно шел к победе AlphaGo. «AlphaGo действительно обладает интуицией,  – заявил New Scientist соучредитель Google Сергей Брин через пару часов после третьей победы своей компании. – Ходы бота были прекрасны. Он

смог придумать такие изящные комбинации, о которых большинство из нас даже не догадывалось».

Корейский афтершок С поражением приходит решимость. После своей победы AlphaGo стал настоящей звездой Кремниевой долины. Но в Южной Корее царили другие настроения. Там трансляция игры в го по телевизору привлекает рекламные контракты и корпоративных спонсоров. Студенты корпят над изучением различных ходов в академиях. Наблюдение за тем, как искусственный разум от Google AlphaGo разгромил корейского гроссмейстера Ли Седоля, повергло страну в шок, особенно после того, как национальный герой уверенно предсказал свою победу над ботом. Однако реальный результат продемонстрировал всю мощь ИИ. –  Прошлая ночь была очень печальной, и многие люди топили горе в бутылке,  – рассказал в своем утреннем выступлении после первого поражения Ли Чжон Ахрам, ведущий корреспондент по го из Joongang Ilbo, одной из крупнейших ежедневных газет Южной Кореи. – Корейцы боятся, что ИИ разрушит человеческую историю и культуру. Это очень эмоциональный момент. Но, пожалуй, сильнее всего людей задела изящность действий AlphaGo. –  Это колоссальный по своей значимости эпизод в истории эволюции человека: машина смогла отточить собственную интуицию, изобретательность и коммуникацию – все то, что ранее считалось прерогативой человека,  – сказал Чон Дэ-Ик, научный философ Сеульского национального университета.  – До этого мы даже не думали о том, что искусственный интеллект может обладать творческими способностями. Теперь мы знаем, что творчество у ботов есть – чем больше мозгов, тем они умнее. Южнокорейскую прессу заполонили заголовки: «"Ужасающая эволюция" искусственного интеллекта» и «Победа AlphaGo… боязнь искусственного интеллекта прогрессирует». Некоторые люди

настроены оптимистично и надеются, что последствия проигрыша Ли ознаменуют революцию в сфере южнокорейского образования. «Мы очень слабы в ИИ,  – говорит Ли Сок-бонг, журналист южнокорейского научного портала HelloDD.com. – До этого момента корейцы мало что знали об искусственном интеллекте. Но сейчас, после этой игры, каждый кореец узнал о нем».

Завоевание территории Игра в го сводится к тому, что два игрока размещают черные и белые камни для захвата поля соперника. Она ведется на доске 19 × 19, что дает в сумме 10171 возможных комбинаций. Для сравнения, стандартная шахматная доска 8 × 8 имеет максимум 1050 возможных конфигураций. А чтобы вы еще лучше поняли масштаб: всего во Вселенной насчитывается 1080 атомов. «Пожалуй, го – это самая сложная игра из когда-либо придуманных человеком»,  – говорит сооснователь DeepMind Демис Хассабис. Для успешного прохождения игры AlphaGo от DeepMind использует несколько нейронных сетей. Его «стратегическая» нейронная сеть изучает игру по базе данных, содержащей порядка 30 миллионов ходов, которые совершались опытными игроками-людьми. Эта база данных учит программу предсказывать дальнейшие ходы. Затем сеть совершенствуется, отыгрывая тысячи партий с различными версиями себя. В дальнейшем она передается в «целевую» сеть, которая оценивает шансы на победу с учетом текущей позиции на доске. После обе сети добавляются в метод Монте-Карло для поиска по «дереву» – это симуляция, которая просматривает все «дерево» возможных шагов для обнаружения путей с наивысшими шансами на победу. Сети служат для сужения выбора путем исключения безнадежных или малоперспективных шагов и ускорения поиска по Монте-Карло. Именно это «сокращение» и дает AlphaGo основное преимущество.

Подход AlphaGo заметно отличается от подхода Deep Blue, поскольку, по сравнению с шахматным приложением, в каждом ходе он оценивает на тысячи позиций меньше. Другими словами, AlphaGo лучше понимает, какие ходы из огромного массива всех возможных комбинаций имеют больше шансов на победу, и фокусируется на них. Также AlphaGo способен поразить своей находчивостью, делая такие шаги, о которых люди-игроки даже не догадываются. Взять, например, 37-й ход во второй партии против Ли. По прошествии 2500 лет, в течение которых люди играли в го, AlphaGo сделал что-то совершенно невероятное. Бот оставил группу камней в одном углу доски, чтобы играть в другом. Даная стратегия шла вразрез со всем, что мог бы сделать игрок-человек. Подобный ход вызвал негодование Ли, который на несколько минут даже покинул комнату, а затем четверть часа раздумывал о своем следующем ходе. Некоторые комментаторы сначала подумали, будто AlphaGo допустил ошибку. Но данный ход обеспечил победу ИИ. Ход 37 использовался как доказательство того, что AlphaGo способен на то, что мы называем интуицией. После знаменательной победы AlphaGo продолжил самосовершенствоваться, соревнуясь с лучшими игроками, включая побежденного чемпиона Европы Фан Хуэя. В мае 2017 года AlphaGo выиграл все три партии в игре против Ке Цзе, нынешнего игрока с самым высоким рейтингом в мире. Китайская ассоциация го присудила ИИ от DeepMind профессиональный статус 9 дана. Но свои навыки оттачивала не только машина. Фань Хуэй сказал, что изучение нечеловеческого стиля ИИ сделало его еще более сильным игроком. После нескольких месяцев спарринга с ИИ он перешел с 500 до 300 строчки в мировом рейтинге. Теперь DeepMind занята поисками новых задач. «Мы надеемся, что однажды сможем расширить методы алгоритма для решения ряда самых сложных и острых проблем общества, начиная от климатического моделирования и заканчивая комплексной диагностикой болезней», – говорит Хассабис. Примерно то же самое

IBM в свое время говорила о Deep Blue. Но победа в шахматной игре не вызвала революции ИИ. Единственная разница в данном случае состоит в том, что метод обучения AlphaGo делает его более универсальным, и это может сыграть людям на руку. Базовые методы AlphaGo, в отличие от техник Deep Blue, обладают большей применимостью к другим областям.

Интервью. Каково это – действовать от имени ИИ? В 2016 году Аджа Хуанг из DeepMind (Google) перемещал фигуры за AlphaGo в пяти играх против Ли Седоля. – Каково это быть телесным воплощение ИИ? – Я настроен очень серьезно. Не хочу ошибиться, потому как все это – кропотливая работа команды. Кроме того, я очень стараюсь проявить уважение к Ли Седолю. Он – мастер. – Вы и Ли поклонились друг другу перед первой партией, хотя вы и не являетесь AlphaGo. – Это официальная игра, и мы проявляем уважение друг к другу. Я кланяюсь от имени AlphaGo. – Удивляют ли вас действия AlphaGo? –  О да, конечно. Как?! Играть здесь? Особенно тот выдающийся 37-й ход во второй партии. Его показали на экране, и я такой: «Вау!» – Отличается ли ваша манера расставлять камни? –  Если AlphaGo уверен в своих движениях, то и я буду играть уверенно. В ряде шагов, которые лично мне кажутся очень хорошими, я играю в полную силу. Мол, отличный ход! – Как все это выглядит для Ли? –  Мне кажется, для него это тоже новый опыт. Такая игра отличается от игры человека. Компьютер равнодушен. У него нет эмоций. Поэтому, думаю, Ли было не очень комфортно. – Сопереживаете ли вы ему? – Я всегда на стороне AlphaGo. Но чувство сопереживания у меня все-таки есть. Я тоже чувствую давление на Ли. Он пообещал, что

сможет сокрушить AlphaGo со счетом 5:0. А на деле все оказалось совершенно иначе. Тем не менее я уважаю его как мастера.

Лучшие результаты Перед ИИ не устояли не только настольные игры. В 2015 году DeepMind объявила о разработке ИИ, который способен научиться играть в видеоигры путем наблюдения за ними на экране. Изначально алгоритм научился играть в 49 различных видеоигр на Atari 2600. ИИ смог побить рекорд профессиональных игроковлюдей в 23 играх из 49. Программе не рассказывались правила игры. Она пользовалась алгоритмом под названием «глубокая нейронная сеть» для исследования состояния игры и определения набора действий, дающих в сумме наибольшее количество очков. Лучше всего ИИ проявил себя в простых играх на тему бокса и пинбола. Тем не менее он также получил высокие оценки в классической аркадной игре Breakout, в которой нужно отбивать мяч и разбивать ряды блоков. ИИ даже научился прокладывать туннель через один ярус блоков и отбивать мяч от внутренней стены – этим трюком пользуются лишь опытные игроки в Breakout. «Для нас это стало большой неожиданностью,  – рассказывает Хассабис.  – Такую стратегию придумала сама система». Наблюдение за игрой Atari равносильно обработке порядка 2 миллионов пикселей данных в секунду. Это говорит о том, что Google заинтересован в использовании своего ИИ для анализа собственных больших наборов данных. И поскольку ИИ обучается путем наблюдения за экраном, а не получает данные из кода игры, то можно предположить, что данным алгоритмом планируют пользоваться для анализа изображений и видеоматериалов.

В какую игру сыграть ИИ дальше?

Вот каким, по мнению экспертов, должен быть список.

Diplomacy Марк Бишоп из Голдсмитского колледжа Лондонского университета предлагает стратегическую настольную игру Diplomacy, в которой игроки примеряют на себя роль европейских держав, борющихся за землю и ресурсы. Бишоп говорит, что AlphaGo «не понимает значения символов, которыми так виртуозно оперирует. Алгоритм даже не осознает, что играет в го». Diplomacy олицетворяет собой многие трудности, стоящие на пути развития современного ИИ к истинной разумности. «Интересно, что это игра, в которую, чисто теоретически, компьютер может играть на очень высоком уровне, поскольку ходы в ней передаются в письменной форме», – рассказывает Бишоп. Но сначала алгоритму придется пройти тест Тьюринга – если люди поймут, каким персонажем играет ИИ, они смогут объединиться против него.

StarCraft Одновременно в го существует порядка 300 возможных ходов. В стратегической видеоигре StarCraft, которая состоит из сотен частей, ходов может быть 10300. «Вы не сможете изучить все возможные ходы даже в текущем отрезке времени, не говоря уже о будущем», – говорит Стюарт Рассел из Калифорнийского университета в Беркли. Наоборот, ИИ должен будет оценить свои действия и цели на более высоком уровне, а затем придумать план для достижения желаемого. Здесь потребуются методы рассуждения, применимые к более широкому кругу реальных проблем.

Dungeons & Dragons Джули Карпентер из Калифорнийского политехнического государственного университета в Сан-Луис-Обиспо говорит, что «AlphaGo не пытается доказать или опровергнуть человеческое чувство реальности или правдоподобности. Наоборот, он целиком и

полностью сосредоточен на достижении цели – победить в игре». Она считает, что было бы интересно привлечь ИИ к ролевым играм. Цели игры в данном случае не будут казаться машинам столь очевидными, и для достижения успеха ИИ придется полагаться на такие навыки, как социальное общение и ситуационная осведомленность более высокого уровня.

Мошенничество Игроки-люди могут предугадать по лицу и языку тела оппонента его следующий шаг. Для достижения своей цели они также могут пользоваться тактиками введения в заблуждение (например, дезориентация). Но сможет ли робот определить притворное поведение или ввести кого-то в заблуждение, не будучи разоблаченным? «Подобные сложности в игре выходят за масштабные рамки математических проблем, которые смог решить современный ИИ»,  – говорит Рональд Аркин из Технологического института Джорджии в Атланте.

Реальный мир Мюррей Шанахан из Имперского колледжа Лондона утверждает следующее: «Я не особо заинтересован в том, чтобы ИИ осваивался в других играх. Это полезно для тестирования алгоритма или новых методов обучения, но по-настоящему новой областью является реальный мир. Мы сможем приблизиться к общему человекоподобному искусственному интеллекту только тогда, когда машинное обучение научится понимать повседневный мир так же хорошо, как и стратегии в го».

Фишки на исходе В январе 2017 года компьютеры одержали очередную победу над людьми, выиграв 20-дневный турнир по покеру. ИИ Libratus обыграл

четырех лучших в мире игроков в техасский холдем в казино Пенсильвании. После 120 000 раскладов Libratus фишки составляли порядка 1,7 миллионов долларов. Мастерски играющий в покер ИИ примечателен тем, что освоил игру с «неполной информацией»: игроки не знают, какие карты раздали их оппонентам, поэтому не имеют полного представления о состоянии игры. Это означает, что ИИ приходится следить за техникой игры оппонента и корректировать собственный подход, чтобы не выдать свой блеф или хороший расклад карт. Победа является еще одной важной вехой для ИИ. Алгоритмы Libratus не создавались специально для покера или других игр. ИИ не обучали стратегиям. Наоборот, он должен был вырабатывать собственный способ игры, в зависимости от предоставленной информации (в данном случае – в соответствие с правилами покера). Это говорит о том, что Libratus можно применять к любой ситуации, которая требует ответа на основании несовершенной информации. Повседневный мир богат неполной информацией. Создатели ИИ из Университета Карнеги – Меллона считают, что алгоритм можно применять в сфере кибербезопасности, переговорах, военных условиях, аукционах и многом другом. Также они рассмотрели возможность использования ИИ для усиления борьбы с инфекциями, представляя планы лечения в виде игровых стратегий. Libratus состоит из трех основных частей. Первая часть вычисляет длинный список стратегий, которые ИИ может использовать в начале игры. За первые минуты турнира Libratus тратил порядка 15 миллионов часов вычислений, оттачивая свои стратегии. Вторая часть, называемая «вывод завершающей фазы», учитывает ошибки, допущенные оппонентами ИИ: случаи, когда они «открывались» и можно было предсказать результат каждого хода. Третья часть ИИ искала собственные стратегические слабости, чтобы изменить свои способы игры перед следующей сессией. Алгоритм стремился определить методы, которыми пользовались оппоненты. Например,

«подсказки», которые мог заметить другой игрок. Это было очень важно, поскольку в последнем турнире человеческие игроки смогли вычислить, как именно играл ИИ при различных раскладах, и стали подстраивать под это порядок ставок. Джейсон Лес, один из профессиональных игроков турнира, охарактеризовал Libratus как «безумно хороший» и отметил, что было похоже, будто со временем его стратегия улучшалась, и день ото дня победить его становилось куда сложнее.

Быстрый и яростный В 2016 году мы узнали, что за неделю ИИ-приложение от Facebook может нанести на карту больше, чем человечество за всю его историю. Социальная сеть объявила, что ее системе искусственного интеллекта понадобилось две недели на создание карты, охватывающей 4  % нашей планеты. Это 14  % поверхности Земли площадью в 21,6 миллионов км2, снимки которой были сделаны из космоса, обработаны и сопоставлены с цифровым представлением изображенных на них дорог, зданий и населенных пунктов. Кроме того, Facebook утверждала, что алгоритм может справиться с задачей лучше и быстрее, проведя потенциальное сравнение всей земной поверхности менее чем за неделю. Цель Facebook – создание карт, которые помогут социальной сети подключить к Интернету людей, находящихся в данный момент в режиме офлайн. Один из самых ярких примеров технологического феномена – компьютеры, которые очень быстро выполняют работу человека. Они изменят то, как мы работаем, и окажут огромное влияние на процесс получения знаний, налаживания сотрудничества в крупных проектах и даже понимания мира. Получив для обучения всего лишь 8000 спутниковых изображений одной страны, размеченных человеком, данная модель смогла нанести на карту 20 стран. Позже компания усовершенствовала процесс до такой степени, что на создание такой же карты уходило

не более пары часов. При наличии необходимых фотографий система ИИ сможет создать карту Земли за шесть дней. На создание карты такого масштаба любая команда из людей потратит десятки лет, и количество данных для обработки превысит все мыслимые пределы возможностей не только людей, но и корпораций. Картографический ИИ от Facebook – всего лишь один из тысяч узкоспециализированных искусственных интеллектов, бросающихся на решение человеческих задач по всей планете – и они делают это быстрее и масштабнее, чем когда-либо мог человек. Лаборатория физики элементарных частиц ЦЕРН под Женевой, Швейцария, использует глубокое обучение для обнаружения шаблонов в массиве данных о столкновениях частиц. Фармацевтические компании с помощью ИИ находят новые идеи для лекарств в наборах данных, которые не смог бы обработать человек. Элисон Лаундс из Nvidia, которая помогает организациям создавать системы глубокого обучения, говорит, что теперь она работает со всеми: правительствами, врачами, исследователями, родителями, розничными торговцами и даже, как ни странно, упаковщиками мяса. Интересно то, что все нейронные сети могут масштабироваться так же, как и картографический ИИ от Facebook. У вас есть ограниченный ИИ, который может по снимкам распознать признаки рака? Отлично! Если у вас есть нужные данные, то вы можете проверить на рак каждого жителя Земли всего за несколько часов. У вас есть ИИ, который знает, как обнаружить обвал рынка? Великолепно! Он может одновременно наблюдать за 20 крупнейшими мировыми биржами и следить за ценами акций отдельных компаний. Истинная мощь ограниченного ИИ заключается не в том, что он может делать, – ведь его производительность почти всегда уступает человеческой. Карты, сгенерированные искусственным интеллектом Facebook, далеко не так хороши, как аналоги от разработчика произвольных карт Mapbox. Но сила интеллектуальных систем,

создаваемых в лабораториях Google, Facebook и Microsoft, именно в том, что они работают на компьютерах. Будущее «человеческой» работы будет зависеть от того, что более предпочтительнее: операции среднего качества со скоростью 50 миллионов в секунду или же операции высокого, человеческого, качества по одной за несколько минут.

Научиться видеть и слышать Камеры окружают нас повсюду: в телефонах, домах и почти во всех общественных местах. Наш мир все чаще контролируется программами. ИИ, распознающий образы на фотографиях, позволяет классифицировать сотни миллиардов изображений, которые мы создаем и загружаем, например, в социальные сети. Мы можем не только найти интересные нам картинки, но и отследить огромное количество изображений нелегального или оскорбительного содержания – а это уже невозможно сделать вручную. К тому же распознавание изображений позволяет машинам лучше понять мир людей и быстрее в нем освоиться.

Многое еще предстоит сделать, особенно если говорить о наблюдении за непредсказуемым реальным миром. Но в ряде тестов ИИ уже сейчас способен определить изображения на картинках, включая отдельные лица, причем он делает это куда точнее нас. Тем не менее мощь машин, которые умеют слушать и наблюдать, не в том, что они делают это лучше человеческих глаз или ушей. Их мощь, как и других вычислительных приложений, заключается в скорости, масштабе и относительной дешевизне обработки. Большинство крупных технологических компаний разрабатывают нейронные сети для понимания речи, открывая наборы данных, которые ранее казались трудными или невозможными для поиска.

Как устроен мир Выделение объектов на изображении – это одно; масштабное понимание происходящего на картинке гораздо сложнее. Один из способов помочь машинам лучше понять мир – это научить их предсказывать будущее. Например, исследователи из Facebook

работают над искусственным интеллектом, который при просмотре изображения сможет предсказывать то, что произойдет дальше. Он даже может генерировать несколько видеокадров, которые показали бы возможное развитие событий с определенного момента времени. Но не только Facebook работает над данной техникой. Обучение ИИ предвидению возможных поворотов событий помогает алгоритму лучше понять настоящее. «Любой робот, который работает в нашем мире, должен обладать базовой способностью к предсказанию будущего, – говорит Карл Вондрик из Массачусетского технологического института.  – Если вы начинаете садиться в кресло, то вам явно не захочется, чтобы в этот момент робот вытащил его из-под вас». Вондрик и коллеги обучали ИИ на двух миллионах видео с сайта по обмену фотографиями Flickr, на которых изображались пляжи, поля для гольфа, вокзалы и дети в больнице. После тренировки ИИ смог предсказать то, что произойдет дальше, в результате анализа одного изображения. При показе изображения железнодорожной станции ИИ создавал видео с поездом, отходящим от платформы, а фотография пляжа вдохновляла его на создание анимации с накатывающими волнами. Человеческому глазу данные видео могут показаться немного странными, и ИИ еще предстоит многому научиться. Например, он не понимает, что поезд, покидающий станцию, со временем должен также пропасть и из кадра. Это объясняется тем, что алгоритм не обладает предварительными знаниями о правилах мира, то есть тем, что мы бы назвали «здравым смыслом». Два миллиона видеороликов, то есть материал длительностью примерно в два года,  – это то количество данных, которое необходимо для понимания устройства мира. Это не так уж много по сравнению с опытом десятилетнего ребенка или тем, что люди увидели за миллионы лет эволюции. Команда работает над созданием более длинных видео, в которых ИИ может еще дальше спроецировать свое воображение. Возможно,

ему не под силу точно предсказать будущее, однако он может показать нам альтернативные варианты. «Я считаю, что у нас получится создать такие системы, которые в конечном счете научатся проецировать адекватные и правдоподобные варианты развития будущего», – говорит Вондрик.

Покорение новых вершин Одним из видов деятельности, в которых машины все еще терпят неудачи, является взаимодействие с физическим миром. Пока DeepMind готовился к своей знаменательной игре в го, другая команда Google работала над более прозаичной победой. В видео, выпущенном в 2016 году, роботизированные пальцы разгибались и хватали бытовые предметы: ножницы или губки. Они повторяли эту процедуру сотни тысяч раз, обучая себя элементарной зрительномоторной координации. Роботы совершенствуют технику хватания методом проб и ошибок до тех пор, пока не научатся дотягиваться и поднимать предмет одним плавным движением. На той же неделе Facebook показал, как один из его ИИ обучался устройству мира, наблюдая за видео падающих башен из деревянных брусьев. Целью исследования было научить алгоритм интуитивному восприятию физических объектов – так, как это делают дети, – а не делать выводы на основе заранее прописанных правил. Обучение машин взаимодействию с реальным миром на интуитивном уровне ребенка является серьезной проблемой для исследователей ИИ. Освоение сложной игры – весьма захватывающее зрелище, однако ИИ, играющий в детские игрушки,  – это как раз то, над чем нам следует понаблюдать. Несмотря на сложность го, все задачи в игре регламентированы четкими правилами. Для реального мира это – непозволительная роскошь. «Честно говоря, мой пятилетний ребенок намного умнее AlphaGo,  – рассказывает Орен Эциони, генеральный директор Института искусственного интеллекта Аллена в Сиэтле, штат

Вашингтон. – Любой ребенок значительно умнее и гибче; он может справляться с новыми ситуациями и руководствоваться здравым смыслом». Тем не менее эксперимент с робопальцами доказывает, что методы машинного обучения, используемые для освоения го, способны помочь машинам освоить зрительно-моторную координацию. Люди пытаются сделать ИИ более похожим на нас, улучшая его ловкость через реакцию на успехи и неудачи. В течение двух месяцев команда робопальцев записывала на видео 14 роботов-манипуляторов в процессе поднимания предметов. Эти 800  000+ «попыток захвата предмета» загружались обратно в нейронную сеть. Благодаря обновленному алгоритму, которым роботы стали руководствоваться при принятии решений, исследователи вновь подвергли свои машины испытаниям. Они заполнили мусорные корзины случайными объектами, включая те, которые было трудно поднять двухпальцевым захватом: стикеры, тяжелые степлеры, мягкие или мелкие предметы. В итоге роботы могли захватывать какие-то предметы на протяжении 80  % времени. Они разработали то, что команда исследователей окрестила «нетрадиционными и неочевидными стратегиями захвата», научились оценивать размер объектов и правильно с ними обращаться. Например, робот захватывает твердый предмет, обхватывая пальцами каждую его сторону. А с бумажными салфетками и прочими мягкими предметами робот помещал один палец сбоку, а второй ставил посередине. Команда Facebook применила аналогичный подход. Они обучили алгоритмы на 180  000 компьютерных симуляций цветных блоков, сложенных в случайном порядке, а также, на видеоизображениях реальных башен из деревянных брусков, когда они падали или оставались на месте. В результате лучшие нейронные сети смогли точно предсказать падение имитируемых блоков в 89 % случаев. ИИ не очень хорошо справился с реальными блоками, а лучшая система

давала правильный прогноз только в 69 % случаев. Показатели для виртуальных брусков оказались выше человеческих, а прогноз падения реальных брусков был сравним с предположениями испытуемого-человека. Подобные исследования постепенно отходят от контролируемого обучения – классического подхода при обучении машин, при котором им предлагаются правильные ответы. Вместо этого обучение перекладывается на сам алгоритм. Машина строит догадку, проверяет ее успешность и затем пытается снова. AlphaGo также частично обучался по методу проб и ошибок. Это помогало ему находить выигрышные ходы, сбивающие с толку человеческих игроков. Еще один навык, который предстоит освоить ИИ, чтобы конкурировать с ребенком,  – это отличное выполнение не одной задачи, а целого множества. Как считает Энциони, подобный уровень разумности отделяют от нас десятки лет кропотливой работы. «Человеческая подвижность и способность переключаться с одной задачи на другую до сих пор не реализованы».

Часы заурядного видео Исследователи из Пенсильванского университета Филадельфии учат нейронную сеть EgoNet смотреть на мир собственными глазами. Для этого они загружают в сеть множество часов заурядных видео, которые снимались с помощью камер GoPro, прикрепленных к головам людей. Добровольцы размечали по кадрам моменты своей повседневной жизни, показывая, на чем именно сосредотачивалось их внимание в каждой сцене. Затем эту запись загружали в компьютер, который многократно спрашивали о происходящем в кадре. Такие данные помогли алгоритму научиться прогнозировать, выбирая предметы, которые человек собирался внимательнее рассмотреть или потрогать. Вы с большей вероятностью возьмете

кофейную чашку, если, например, ее ручка повернута в вашу сторону. Точно так же тот, кто хочет воспользоваться компьютером, сначала потянется к клавиатуре. Команда тестировала EgoNet на кадрах, в которых фигурировали люди в процессе приготовления пищи, играющие дети и бегающая в парке собака. Конечно же, до полноценной конкуренции с человеком алгоритму нужно еще дорасти. Но исследователи надеются, что данная версия системы может оказаться полезной в сфере здравоохранения, позволяя, например, врачам диагностировать необычные шаблоны поведения у детей. В другом проекте под названием Augur исследователи из Стэнфордского университета в Калифорнии тоже пытались научить компьютеры понимать происходящее в видео, снятом от первого лица. Но вместо того, чтобы обучать Augur на материале с комментариями, ему предоставили совершенно другой набор данных: 1,8 миллиардов слов, взятых из художественных произведений на Wattpad – интернет-сообществе писателей.

Пища для размышлений Художественная литература – отличный источник для прогнозирования человеческого поведения, поскольку она описывает всю глубину человеческой жизни. Большинство историй имеет повествовательную структуру, благодаря чему соблюдается логическая последовательность событий, которые может освоить компьютер. Как только Augur идентифицировал объект в кадре, он начинал штудировать прочитанные материалы с целью отгадать, что бы с подобным объектом сделал человек. Например, изображение тарелки указывает на то, что кто-то собирается поесть, приготовить пищу или помыть посуду. Если вы просыпаетесь и смотрите на

будильник, то Augur должен догадаться, что вы собираетесь встать с постели. Один из недостатков такого обучения в том, что художественная литература делает Augur склонным к драматизму. Если зазвонит телефон, то алгоритм подумает, что вы начнете ругаться и собираетесь швырнуть телефон в стену. Настройка системы с использованием более бытовых сценариев научит Augur тому, что не все живут в мире сериалов. Исследователи полагают, что такая система поможет фильтровать звонки, если алгоритм видит, что человек занят, либо напомнит владельцу о лимитах на покупки, когда увидит, что человек присматривается к дорогим товарам. Исследователи из Facebook тоже тренировали свой ИИ на художественной литературе. Один из их наборов данных включал в себя текст из десятков классических детских произведений, таких как «Книга джунглей», «Питер Пэн», «Маленькие женщины», «Рождественская песнь» и «Алиса в стране чудес». Чтобы проверить, насколько хорошо ИИ понимал прочитанное, его просили заполнить пробелы в предложениях, описывающих события из историй. Исследователи Facebook утверждают, что способность отвечать на подобные вопросы указывает на то, что ИИ в состоянии принять решения, опираясь на более широкий контекст происходящего. Это является важнейшим навыком в представлении и запоминании сложных фрагментов информации. Схожее мышление привело к появлению другого теста на интеллект. Его также разработали в Facebook, и он включал в себя ответы на основные вопросы об отношениях между объектами из коротких рассказов.

Интервью. Можем ли мы наделить компьютеры здравым смыслом? В Facebook на подходе сразу несколько проектов по искусственному интеллекту. Ян Лекун, профессор вычислительных наук в НьюЙоркском университете и директор по ИИ в Facebook, создает искусственные нейронные сети с глубоким пониманием изображений

и текста. Что изображено на картинке? О чем говорится в рассказе? Как все это взаимосвязано? Что может произойти дальше? В интервью 2015 года для New Scientist Ян рассказал, на что способна эта технология. – Какие серьезные проблемы стоят перед вами? –  Самой главной проблемой является неконтролируемое обучение (обучение без учителя), то есть способность машин улавливать практическую суть происходящего в процессе наблюдения за миром. Пока что для этого у нас не хватает нужных алгоритмов. – Почему исследователям ИИ стоит переживать об осмысленности и неконтролируемом обучении? –  Потому что это тип обучения, которым в основном пользуются люди и животные. Почти все наше обучение – неконтролируемое. Мы узнаем об устройстве мира, наблюдая и живя в нем. Никто не говорит нам, как все называется. Так как же нам переключить машины на неконтролируемое обучение, используемое у людей и животных? –  В Facebook есть система, которая может отвечать на простые вопросы о происходящем на картинке. Она обучалась на комментариях, сделанных людьми? –  Это сочетание человеческих комментариев и искусственно созданных вопросов и ответов. Изображения уже содержат либо перечень собственных объектов, либо описания самих себя. Из этих перечней или описаний мы можем сгенерировать вопросы и ответы об изображенных на картинке объектах, а затем обучить систему выбирать правильный ответ, когда вы задаете вопросы. По большому счету, именно так и происходит обучение. –  Есть ли какие-то типы вопросов, вызывающие трудности у вашей системы ИИ? –  Да. Если вы спрашиваете о семантике, то система не сможет дать достойный ответ. Она обучена на определенных типах вопросов, например наличие или отсутствие объектов, либо

отношения между объектами. Однако есть огромное множество вещей, которые такой ИИ сделать не может. Так что это не идеальная система. –  Можно ли использовать данную систему для автоматической подписи изображений в Facebook или Instagram? –  В создании подписей используется немного другой метод. Но они похожи. Конечно же, это очень полезная опция для слабовидящих пользователей Facebook. Или, скажем, вы едете за рулем автомобиля, кто-то отправляет вам фотографию, а вы не хотите отрываться от дороги и смотреть на экран телефона. Тогда вы можете просто спросить систему: «Что изображено на картинке?» –  Существуют ли проблемы, которые, по вашему мнению, не в состоянии решить глубокое обучение или сверточные нейронные сети, считывающие изображения? –  Есть вещи, которые на сегодняшний день реализовать невозможно. Но кто знает? Например, если бы вы спросили меня лет десять назад: «Нужно ли использовать сверточные сети или глубокое обучение для распознавания лиц?», – я бы сказал, что у нас ничего не получится. А на самом деле все получилось очень даже неплохо. – Почему вы решили бы, что нейронные сети с этим не справятся? –  В то время нейронные сети действительно хорошо распознавали общие категории. Например, вот здесь изображен автомобиль. Неважно, что это за автомобиль и в каком он находится положении. Или, допустим, стул. Существует огромное множество различных стульев, а нейронные сети хороши лишь в отделении «стула» от «автомобиля», вне зависимости от конкретного экземпляра и его положения. Но для того, чтобы распознавать виды птиц, пород собак, растения или лица, потребуется четкое разграничение по тысячам и миллионам категорий, и различия между этими категориями весьма незначительны. Я был уверен, что глубокое обучение – не лучшее решение, и стоит поискать более подходящий вариант. Я ошибся. Я недооценил силу своей собственной технологии. Есть множество

вещей, которые в данный момент кажутся мне сложными. Но стоит увеличить собственные возможности, как эти вещи становятся вполне решаемыми. –  Facebook провел эксперимент, в котором инженеры дали компьютеру отрывок из «Властелина колец», а затем попросили его ответить на вопросы по рассказу. Является ли этот эксперимент примером нового тестирования разумности машин от Facebook? –  Это продолжение нашей работы с использованием тех же методов, что лежат в основе системы. Группа, работающая над данным экспериментом, придумала серию вопросов, на которые могла бы ответить машина. Вот рассказ. Ответьте на вопросы по нему. Какая-то информация выдавалась в форме простых фактов. Если я скажу: «Ари берет свой телефон», а затем спрошу: «Где находится телефон Ари?», то система должна будет сказать, что телефон находится в руках Ари. Но как насчет целой истории, в которой люди перемещаются? Я могу спросить: «Находятся ли эти два человека в одном месте?», а вы, если захотите ответить на данный вопрос, должны будете представить себе, как выглядит физический мир. Для ответа на вопросы из серии «Сколько человек находится в комнате?» вы должны запомнить из всех предыдущих предложений, сколько человек зашло в эту комнату. Для такой категории вопросов нужны логические рассуждения. –  Придется ли нам обучать машины осмысленности до того, как они научатся предсказывать будущее? – Нет, это можно делать одновременно. Если мы обучаем систему прогнозированию, то в процессе формирования предсказания она сможет сделать все необходимые выводы о структуре окружающего мира. Конкретным воплощением этого крутого явления можно назвать Eyescream. Это нейронная сеть, в которую вы загружаете случайные числа, а на выходе она выдает вам реалистичные изображения. Вы можете дать ей команду нарисовать самолет или

церковный купол… для всего, на чем обучалась сеть, она способна сгенерировать весьма правдоподобные изображения. Так что возможность генерирования изображений – это как кусочек головоломки. Ведь для того, чтобы предсказать, что произойдет дальше в видео, нужно иметь модель, способную создавать изображения. – Что именно может предсказать ваша модель? –  Если вы покажите системе видео и спросите: «Что произойдет на следующем кадре?», то задача окажется не такой уж сложной. Существует несколько возможных сценариев, но уже движущиеся объекты обычно продолжают свое движение в том же направлении. Однако если просить, как изменится видео через секунду, то произойти может многое. А что если вы смотрите фильм Хичкока, и я такой спрашиваю: «Что будет в фильме через 15 минут?» Вы должны будете догадаться, кто убийца. Решение этой проблемы потребует от вас полной осведомленности о мире и природе человека. Но в этом-то и вся прелесть. – Как, по вашему мнению, глубокое обучение изменит нашу жизнь через пять лет? –  Одна из исследуемых нами областей – это идея личного цифрового дворецкого. Мы пока не придумали название для проекта, но в Facebook он называется Project M. Цифровой дворецкий – это долгосрочная научно-фантастическая версия виртуального помощника М от Facebook, как в фильме «Она».

Четко и ясно Машины учатся не только видеть, но и слышать. За последние несколько лет в распознавании голоса наметился значительный прогресс. Теперь мы близки к тому, чтобы считать чем-то обыденным голосовые команды телефону найти информацию в Интернете или

поставить напоминание. А такими устройствами, как Amazon Echo и Google Home, и вовсе можно управлять только голосом. Индустрия безопасности активно инвестирует в умные охранные системы, которые, например, могут определить разницу между разбитым окном и упавшим бокалом для вина. Как так вышло, что распознавание голоса вдруг распространилось повсюду? Это обычная история. Недавний расцвет технологий был обусловлен машинным обучением и огромными объемами доступных обучающих данных. «За последние 3 года область распознавания речи претерпела больше положительных изменений, чем за прошедшие 30 лет вместе взятых», – рассказывает Тим Таттл, генеральный директор Expect Labs, стартапа из Сан-Франциско, который создает умные голосовые интерфейсы. У нас еще остались непокоренные вершины. Технологию до сих пор могут сбить с толку различные акценты и шумный фон, а также дети, поскольку они обладают более высокими голосами и с большей долей вероятности нарушают очевидные правила грамматики. Но потенциал для создания мощных систем распознавания голоса просто огромен. Люди с ограниченными возможностями смогут легче управлять машинами, а сильно занятые люди или те, у кого заняты руки, смогут вызвать цифрового помощника. Точно так же врачи используют голосовое распознавание для диктовки медицинских записей. Мечта, над которой сейчас работают многие компании,  – это система, которая не только понимает, о чем мы говорим, но и предсказывает наши потребности как личный помощник. Для успешной реализации система она должна научиться понимать сложные запросы, состоящие из двусмысленных или неточных слов, и быть в состоянии четко указать людям на непонятные ей вещи. К тому же потребуется запоминание предыдущих разговоров. Например, если я ищу билет на самолет в Атланту в сентябре, а затем говорю: «Еще нужен номер в отеле», то система должна сама

понять, когда и где нужно будет забронировать номер, а не заставлять меня лишний раз повторять эту информацию. Появлению машины, способной справиться с неточностью и неясностью повседневной речи, предстоят еще годы полноценной работы. Пока что машины едва ли могут понять, к чему относится местоимение в предложениях из серии «Трофей не поместился бы в коричневом чемодане, потому что он был слишком большим».

Кодовое слово Подключите систему машинного обучения к телефонным линиям в тюрьмах, и вы узнаете такие секреты, которые ни за что не заметит человеческий монитор. Каждый входящий и исходящий звонок в американских тюрьмах записывается. То, что говорится по телефону, может иметь большое значение, поскольку некоторые тюремные заключенные используют телефоны для ведения незаконного бизнеса изнутри. Записи звонков хранятся в огромном количестве аудиофайлов, и проверять их человеческими ушами – слишком дорогая роскошь. С этой целью одна из тюрем на Среднем Западе использовала систему машинного обучения, разработанную лондонской фирмой Intelligent Voice, для прослушивания тысяч часов записей ежемесячно. Программа снова и снова регистрировала в записях слово «тройничок» (three-way)  – оно было одним из самых популярных и часто используемых нетривиальных слов или фраз. Сначала тюремные сотрудники были крайне удивлены повсеместной популярностью того, что, по их мнению, имело отношение к сексу. Но затем они догадались, что это был зашифрованный код. Заключенным разрешено звонить только по нескольким заранее согласованным номерам. Поэтому, если заключенный хотел поговорить с кем-то, кого не было в списке, он звонил друзьям или родителям и просил «тройничка» с человеком, с которым на самом деле хотел побеседовать. Это был код для набора номера стороннего человека. Ни один из специалистов, занимающихся

мониторингом телефонных звонков, не обнаружил данной закономерности, пока в записях не «покопалась» программа. Эта история наглядно демонстрирует скорость и масштаб анализа, которые алгоритмы машинного обучения привносят в наш мир. Изначально компания Intelligent Voice разработала данную программу для британских банков, которые по отраслевым стандартам были обязаны фиксировать все звонки. Здесь, как и в тюрьмах, генерируется огромное количество аудиоданных, которые крайне трудно проверить. Компания обучала свой ИИ не на процессе записи звуковых сигналов, а на формах колебаний человеческого голоса (модель скачков и падений). Обучение системы на таком визуальном представлении данных позволяло ей пользоваться мощными техниками, разработанными для классификации изображений.

Смотрите, кто заговорил Наряду с улучшением понимания речи машины начинают охватывать и микрофоны. Последние версии операционной системы iPhone от Apple запоминают, как звучит ваш голос. Так они могут идентифицировать вас при обращении к Siri и не обращать внимания на посторонние голоса. Siri, умный личный помощник, не единственная, кто знает ваш голос. По мере совершенствования программных средств голосовые системы стали проникать в различные аспекты нашей повседневной жизни – от смартфонов до полицейских участков и кол-центров банков. И это еще не предел. Исследователи из Google представили искусственную нейронную сеть, которая могла подтвердить личность говорящего по фразе «ОК, Google» с частотой ошибок в 2 %. Ваш голос – это физиологическое явление, определяемое физическими характеристиками и языками, на которых вы говорите. Ваш голос уникален, как и отпечатки пальцев или ДНК, и отличается

от голосов других, даже членов семьи. Методы машинного обучения умеют замечать малейшие различия. Распознавание отдельных голосов отличается от понимания того, о чем они говорят. Программы распознавания оснащены огромными наборами голосовых данных, встроенных в гигантскую модель того, как именно разговаривают люди. Это позволяет измерить, насколько сильно голос человека отличается от голосов других людей, и является ключом к идентификации человека. Однако программа может быть сбита с толку изменениями в голосе человека из-за стресса или болезни. Эта технология уже используется в уголовных расследованиях. В 2014 году, когда журналист Джеймс Фоли был обезглавлен, по всей видимости, группировкой ИГИЛ (террористическая организация, запрещенная в России.  – Прим.  ред.), полиция использовала программный алгоритм для сравнения голоса убийцы с голосами из списка возможных подозреваемых. Сообщается, что такие банки, как J.  P.  Morgan и Wells Fargo, стали пользоваться биометрическими характеристиками голоса для выявления мошенников, звонящих на телефон горячей линии. Сейчас исследователи пытаются выяснить, как создать портрет незнакомца на основании аудиозаписей. Спектрограмма речи дает представление о росте и весе говорящего, его происхождении и даже об окружающей его среде. В медицинской области анализ голоса поможет определять вероятные заболевания или психологическое состояние человека.

Ораторские приемы: ИИ учится спорить В романе Дугласа Адамса «Детективное агентство Дирка Джентли» компьютерная программа Reason могла задним числом обосновать любое решение, предоставляя неопровержимые доказательства его правильности. Она была настолько эффективной, что была полностью выкуплена Пентагоном, как раз незадолго до увеличения общественной поддержки военных расходов.

Мы пока что не дошли до подобной стадии. Машины побеждают нас в логических играх (го) и играх с блефом и случайностями (покер). Но ни один компьютер так и не приблизился к тому, чтобы победить людей в чем-то важном – в споре. Первую волну искусственного интеллекта, способную обрабатывать огромные объемы информации и максимально эффективно обнаруживать взаимосвязи, дали нам такие поисковые системы, как Google. Машина, способная сформулировать аргумент – не просто найти информацию в Интернете, а синтезировать ее в более или менее убедительные выводы,  – выведет поисковую систему на принципиально новый уровень. Такое «исследовательское устройство» поможет принимать решения в различных областях от права до медицины и политики. С учетом огромного количества текущих проектов, стремящихся добавить нотку скандальности в ИИ, остается лишь вопросом времени, когда мы сможем испытать собственный темперамент на кремнии ИИ. Споры – это то, в чем люди особенно хороши. От учтивых разногласий по поводу обеденных блюд до громогласных разборок на тему парковочных мест или политических гонок; обмен противоположными мнениями – это как раз то, чем мы обычно занимаемся. Бывают и такие споры, в которых не участвует ни один аргумент. Желание спорить заложено у человека в крови. По мере усложнения окружающего наших предков мира, люди, ставящие под

сомнение истинность высказываний друг друга, получали более мощное эволюционное преимущество. Аргументированность являлась источником рационального мышления: наша способность к оценке плюсов и минусов ситуации возникла на задворках древних споров.

И это факт Социальные корни человеческой аргументации осложняют жизнь ИИ. Даже когда Watson от IBM нанес сокрушительное поражение двум чемпионам-людям в телевикторине Jeopardy!, он лишь продемонстрировал выдающуюся способность отвечать на реальные вопросы. В беспорядочном реальном мире такие методы вам мало пригодятся. «Многие вопросы, с которыми мы сталкиваемся в жизни, не основываются на фактах,  – рассказывает Ноам Слоним из исследовательской лаборатории IBM в Хайфе, Израиль.  – Это вопросы, на которые нет однозначного ответа». После успеха на Jeopardy! Слоним плотно сотрудничал с командой Watson, пытаясь понять, сможет ли машина перейти от фактов к доводам. Если бы вы, например, спросили ее, стоит ли продавать жестокие видеоигры детям, она бы не просто выдала ссылки на мнения других людей, а синтезировала бы факты и аргументы «за» и «против». Пользователям придется самостоятельно решать, какие аргументы заслуживают доверия. Точно так же мы решаем, каким ссылкам из поисковых систем можно доверять. Но в мире, где нас попросту заваливают данными, программное средство аргументации позволит юристам перестать копаться в бескрайних архивах информации в поисках юридических прецедентов – ведь они смогут получить неоспоримые доводы по простому нажатию кнопки. Доктора будут добавлять в систему симптомы и получать достоверные

рекомендации из историй болезни пациентов. Компании привлекут машины к продумыванию доводов в пользу покупки собственных товаров. Политики смогут тайно проверить действенность своих манифестов. Быть может, мы даже начнем консультироваться со средствами аргументации до того, как пойти на выборы. Все это указывает на то, что в своей работе Слоним больше не одинок. Он уже собрал команду из более чем 40 человек. Кроме того, по всему миру начинают появляться и другие исследовательские группы.

Призыв к здравому смыслу Первый вопрос, который должна была решить команда Слонима, – что с логической точки зрения может считаться аргументом. Грубым определением этого является утверждение, подкрепленное доказательствами. Но тогда необходимо будет уточнить определение слова «утверждение». Создавать элементарное в обращении руководство для ИИ – задача на удивление сложная. Для обучения Watson команда Слонима обратилась к Википедии, предположив, что статьи в онлайн-энциклопедии окажутся богатым источником утверждений и контрутверждений. Это оказалось невероятно сложной задачей, сравнимой даже не с поиском иголки в стоге сена, а с выискиванием в этом стоге определенной разновидности сена. «В Википедии содержится порядка 500 миллионов предложений, – рассказывает Слоним. – А утверждение – это не предложение. Оно обычно скрывается внутри предложения». Началась работа по выявлению ключевых особенностей, отличающих утверждения от общих высказываний. Например, в утверждениях чаще упоминается конкретное время и место, а также такие эмоциональные слова, как «исключительный» или «сильный». В дальнейшем команда надеется сместить акцент на выявление

доказательств, подтверждающих утверждения, и обучение системы различию между неофициальными данными и заключениями экспертов. Исследователи также планируют узнать, какой вес придается различным формам доказательств. Конечно же, все это хорошо в случаях, когда нам требуется логичная и беспристрастная оценка фактов. Но сухие факты редко убеждают людей. В основном логические дискуссии вытесняются тем, что мы чувствуем.

Кое-что о чувствах Всякий искусственный интеллект, стремящийся стать не просто исследовательской машиной, а полноправной «машиной аргументов», которая не просто спорит, но спорит с человеческой хитростью, должен отлично владеть способами аргументирования. Но зачем нам такая машина? Франческа Тони, исследователь ИИ в Имперском колледже Лондона, утверждает, что аргументация – это способ разрешения конфликта. Машины, способные на аргументирование, позволят нам лучше и легче оценить конфликты, избежав при этом ошибок. Крис Рид, исследователь ИИ в Университете Данди, Великобритания, считает, что сама идея несколько утопична. Тем не менее он согласен с тем, что машины аргументов помогут повысить уровень публичных обсуждений. В течение последних нескольких лет команда Рида занималась поиском достойных аргументов, а затем разбирала и переделывала их в форму, которая подошла бы для обучения ИИ навыкам ведения спора на человеческом уровне. Эти поиски привели исследователей к неожиданным открытиям. Например, бурные дебаты в парламенте Великобритании не являются хорошим справочным материалом. В них слишком много напускного важничества, перебивания друг друга и отсылок к предыдущим дебатам. «Качественных аргументов

здесь гораздо меньше, чем мы ждали и надеялись», – говорит Рид. С другой стороны, некоторые онлайн-форумы, несмотря на несдержанность участников, содержат на удивление хорошо структурированные аргументы. Любимый источник Рида – радиошоу Moral Maze на BBC, в котором участники дискуссии обсуждают этические аспекты повестки дня. Эта полулегальная полемика, взывающая к нашим эмоциям,  – как раз то, из чего можно создать общий фундамент человеческой аргументации. Анализируя и классифицируя разновидности используемых аргументов и их взаимосвязи друг с другом, команда Рида стремилась создать инструмент, который подошел бы для обучения ИИ. В июле 2012 года исследователи провели первый анализ аргументов в режиме реального времени на примере эпизода Moral Maze, в котором подробно обсуждались нюансы британского колониального права в Кении. Утверждения и контрутверждения с их взаимосвязями представлялись на гигантском сенсорном экране в форме, подходящей для загрузки в ИИ. С тех пор команда Рида повторяла данную процедуру множество раз, разбирая эпизоды Moral Maze, другие радиопередачи и печатные источники, а также некоторые сообщения на форумах, и превращая их в общедоступный банк данных с картами аргументов.

Изменение мнения Команда Рида приступила к сотрудничеству с IBM, пытаясь познакомить Watson с сетью человеческих рассуждений. В это же время проект, запущенный Иваном Хаберналом и Ириной Гуревич в Дармштадском техническом университете в Германии, собирался пойти еще дальше и анализировать не только используемые аргументы, но и наиболее эффективные из них. В 2016 году они попросили 4000 человек выбрать, какой из двух аргументов,

несущих один и тот же смысл, но в разной форме, они сочтут более убедительным, и объяснить почему. После 80  000 полученных ответов исследователи получили базу данных, которую можно было бы использоваться для обучения вычислительных систем оценке аргументов, благодаря чему спор будет более убедительным. –  В моем понимании целью исследования являлось изменение чьего-либо мнения, переубеждение собеседника,  – рассказывает Хабернал. Поверим ли мы в это? Полноценная машина аргументов звучит столь же неправдоподобно, как выдуманное Дугласом Адамсом приложение Reason. Кажется маловероятным то, что кто-то доверится машине, которая будет говорить ему, за кого голосовать, как относиться к определенной проблеме и т.  д. Если бы два десятилетия назад кто-то сказал нам, что мы доверим ИИ подбор и оценку источников информации в сети, этому бы поверили лишь единицы.

4. Вопросы жизни и смерти Беспилотные автомобили, ИИ-врачи и роботы-убийцы

Машины, понимающие окружающий мир, могут его изменить. Это открывает перед нами совершенно новые возможности, например полное переосмысление работы транспорта или скорости лечения болезней. Но здесь также возникает и целый спектр нового потенциального оружия. Беспилотные автомобили, умные медицинские устройства и так называемые роботы-убийцы – все это может как спасать жизни, так и наносить серьезный вред. Могут ли этические споры идти в ногу с технологиями?

Беспилотные автомобили До сих пор вождение считалось прерогативой людей, ведь процесс включает в себя множество переменных. Едет ли приближающаяся машина со скоростью 60–70 километров в час? Может ли неожиданно выскочить другой автомобиль? Ускорится ли водитель, если вы попытаетесь обогнать его машину?

Освоить вождение для ИИ оказалось достаточно просто, по крайней мере на основных магистралях. В 1994 году два беспилотных автомобиля Mercedes-Benz, оснащенные камерами и бортовым ИИ, проехали 1000 километров по дорогам вокруг Парижа. Но по большей части вождение происходит на городских дорогах, и именно здесь все усложняется для ИИ, который до недавнего времени не мог разобраться в негласных правилах городского движения. Например, когда исследователи Google запрограммировали автономное транспортное средство уступать дорогу на перекрестке, как того предписывают правила, выяснилось, что тогда у беспилотных автомобилей нет ни малейших шансов продолжить движение. Так что пришлось скорректировать поведение машин, которые теперь стали продвигаться на несколько сантиметров вперед каждый раз после остановки, тем самым сигнализируя о своем намерении продолжить движение. Другим важным источником неопределенности для беспилотного автомобиля является определение своего положения в пространстве. Он не должен полагаться только на GPS, который может пропасть через несколько метров. Поэтому ИИ компенсирует возможные пробелы информации, отслеживая обратную связь от камер, радара и лазерного дальномера, параллельно сверяясь с показаниями GPS. Усредненные данные этих несовершенных способов определения местоположения вкупе дают весьма точные расчеты.

ИИ не ограничивается только вождением. В последних моделях беспилотников программа автоматически регулирует расход топлива и тормоза для большей эффективности автомобиля. Уже сейчас самые современные автомобили могут похвастаться системами, которые стабилизируют скорость на автостраде (круиз-контроль), маневрируют при очень плотном движении и обнаруживают опасности при слабом освещении с помощью тепловизора. Некоторые автомобили даже освоили леденящую душу параллельную парковку и способны уберечь вас от случайного задевания впереди стоящего транспорта. Они по-прежнему не могут отвести ваших дедушку или бабушку на игру в шахматы, забрать детей из школы или дать вам спокойно поработать на заднем сидении. Но по прогнозам экспертов, в следующем десятилетии мировой рынок беспилотных технологий способен вырасти на 16 %. Так что до таких новшеств уже рукой подать.

Пять уровней Не все автономные транспортные средства одинаковые. SAE International, всемирно признанная организация по стандартизации в транспортной отрасли, разработала популярную шкалу, которая измеряет различные степени автономности. Ниже приведена ее классификация. Уровень 0. Автономные функции отсутствуют; может иметь автоматическое переключение передач. Большинство машин, используемых сейчас. Уровень 1. Несколько автономных функций (например, автоматическое торможение, круиз-контроль). Многие новые модели автомобилей. Уровень 2. Автоматическое рулевое управление, торможение и ускорение. Требуется контроль со стороны человека. Tesla Model S, Mercedes-Benz 2017 E-класса, Volvo S90. Уровень 3. Автомобиль может отслеживать окружающую среду и самостоятельно управлять движением. В любой момент может

потребоваться вмешательство человека. Audi A8 (2018), Nissan ProPILOT 2.0 (2020), Kia DRIVE WISE (2020). Уровень 4. Автомобиль может осуществлять движение самостоятельно. В необычных условиях (например, экстремальные погодные условия) может потребоваться вмешательство человека. Volvo (2017), Tesla (2018), Ford (2021), BMW iNext (2021). Уровень 5. Автомобиль может осуществлять движение в любых условиях. Беспилотные модули, подобные тем, что были представлены в лондонском проекте Gateway.

В поисках собственного пути Эшелоны экспериментальных самоуправляемых автомобилей уже проехали сотни тысяч километров по автомагистралям и оживленным городским улицам без вмешательства человека. Теперь тренировки закончились. Несколько городов по всему миру стали внедрять беспилотные автомобили в сеть общественного транспорта. Один из первых городов – Лондон. Благодаря проекту Gateway можно прокатиться в беспилотном автобусе по Гринвичу, району Лондона. После нескольких лет ажиотажа для многих это стало первым шансом самостоятельно испытать беспилотные автомобили – не просто в качестве пассажиров, а тех, кто делит дорогу с автономными транспортными средствами. Эти небольшие пилотные проекты в городских районах положили начало революции в сфере транспорта. В Великобритании лидерами в данном направлении станут Гринвич, Милтон-Кейнс, Ковентри и Бристоль. Такие проекты реализуются и в других городах, включая Сингапур, Остин в Техасе, Маунтин-Вью в Калифорнии и Анн-Арбор в Мичигане. Автомобили большинства городов будут полностью автономными, но ограниченными определенными районами. А

среда, в которой работают данные транспортные средства, постепенно станет более сложной и обширной. Необходимым элементом беспилотных автомобилей является набор очень подробных карт, которые уже разрабатываются для каждого из пилотных городов. Тогда островки с детальной топографией разнесутся по городским узлам вдоль основных магистралей. Картографическая компания TomTom рассказывает, что уже охватила 28 000 км дорог в Германии с достаточно высоким для беспилотных автомобилей разрешением. А это примерно 4  % всех дорог в стране. Такие внутригородские транспортные средства представляют собой один или два типа автономных автомобилей, которые окажутся на наших дорогах уже в ближайшие годы. Исследовательский институт Toyota, возглавляемый Джиллом Прэттом, называет эти два типа «Ангел-хранитель» и «Шофер». Автономные пассажирские модули, которые мы увидим в городах,  – это шоферы. Ангелами-хранителями называют машины, которые никогда не станут лишать человека контроля над ситуацией и будут останавливать вас от совершения глупостей. Оба типа беспилотных автомобилей предназначены для спасения жизней. В одной только Великобритании на дорогах ежегодно гибнет 1700 человек. Во всем мире это число составляет 1,25 миллиона.

Сенсоры и программы У автономных транспортных средств больше глаз на дороге, чем у водителя-человека. Автомобили Google с автономным управлением имеют восемь сенсоров, беспилотное такси Uber – 24, а у новых автомобилей Tesla их по 21. И пока мы гадаем, что именно нам хотят сказать органы чувств, сенсоры беспилотных автомобилей объединяют свои данные в поток.

Теперь такие возможности встраиваются в базовую комплектацию некоторых автомобилей. Например, каждый автомобиль из серии Toyota 2017, начиная с базовой модели и выше, будет оснащен сенсорами и программами, которые нужны для работы в режиме ангела-хранителя. К примеру, сенсоры позволят использовать автоматическое экстренное торможение, чтобы машина могла действовать самостоятельно при неизбежном столкновении. Данные с датчиков этих автомобилей будут поступать в центральный информационный центр Toyota в Плано, штат Техас. Затем исследователи из Toyota воспользуются этими данными для обучения своих ИИ вождению на различных типах дорог – куда более разнообразных, чем это было представлено в пилотных схемах проекта Gateway. В конечном счете данные, собранные с помощью систем ангелов-хранителей, позволят разработать автомобили, которые смогут стать превосходными «шоферами» на любой дороге. «Наши машины проезжают триллион миль в год – это огромное количество данных», – говорит Прэтт. Беспилотные автомобили могут принести большую пользу обществу, помогая менее мобильным гражданам. За последние 20 лет в Гринвиче и подобных ему районах стремительно растет демографическая группа людей в возрасте старше 65 лет. И одна из проблем, которую намеревается решить государство, заключается в том, как обеспечить наиболее длительный домашний уход за пожилыми людьми. Использование автономных транспортных средств для перемещения таких категорий граждан может стать большим подспорьем.

Чем займемся вместо вождения? По большому счету, автомобили-шоферы – это тот самый образ самоуправляемых машин, знакомый нам из научно-фантастических фильмов. Они являются тем, что сильнее всего изменит наше отношение к автомобилям. Таким машинам не нужен руль, они могут сами определять маршрут, а пассажиры при желании даже могут

игнорировать внешний мир. По сути, то, как мы будем использовать беспилотные автомобили, зависит от ожиданий потребителей. Если люди в машине захотят поработать, отдохнуть или посмотреть фильмы, то производители автомобилей обязательно это учтут. Если за основу будут взяты модули с Гринвича, то размер и форму транспортных средств также смогут подкорректировать. До сих пор не ясно, что предпочтут люди, например сидеть или стоять в автомобилях. Ширина дорог и аэродинамика все еще ограничивают возможности. Вы можете придумать множество различных форм, но у вас точно не получится создать машину, скажем, в 1 метр длиной и 4 метра шириной. Автомобиль – это звуконепроницаемая камера, в которой вы сидите по паре часов в день. Как только отпадет необходимость в управлении автомобилем, мы сможем полностью переосмыслить то, на что потратить высвободившееся пространство и время. В некотором роде беспилотный автомобиль можно сравнить с отелем и домом, в котором дизайн интерьера продумывается под нужды потребителей: для отдыха, профессиональной деятельности или туризма. Безопасность станет основным ограничением по части внутреннего устройства будущих автомобилей. Если получится создать максимально надежное автономное приложение, не требующее ремней и подушек безопасности, то возможности станут еще шире: диваны, кровати… да что угодно.

Смотри, куда идешь, человек! Как же нам ужиться с роботами при совместном пользовании дорогами? Проблема людей в их непредсказуемости. Инженеры из Калифорнийского университета в Беркли готовят автономные

машины к прогнозированию того, что мы, импульсивные и ненадежные люди, можем сделать дальше. Команда, возглавляемая Кэтрин Дриггс-Кэмпбелл, разработала алгоритм, который может с точностью до 92  % предсказать, будет ли водитель-человек менять полосу движения. Приверженцы идеи с нетерпением ждут, что беспилотные автомобили снизят количество аварий и поток машин на дорогах. Но люди, как утверждает Дриггс-Кэмпбелл, не привыкли ездить бок о бок с автономными машинами. В процессе езды мы следим за мелкими деталями в движении других машин, позволяющими нам предугадать их возможный маневр: поворот, перестроение или торможение. Робот может не прибегать к подобным тактикам, что способно сбить нас с толку. Как вы сможете гарантировать то, что беспилотные автомобили смогут внятно коммуницировать с водителями и пешеходами? Прошлые алгоритмы пытались предсказать, что водитель-человек намеревался делать дальше, следя за движениями его тела. Например, если кто-то часто смотрит через плечо, то он может подумывать о перестроении. Команда Дриггс-Кэмпбелл хотела узнать, смогут ли алгоритмы предсказать дальнейшие действия водителя, наблюдая за автомобилем снаружи. Чтобы понять, как это делают водители-люди, исследователи попросили добровольцев поездить на симуляторе. Каждый раз при намерении сменить полосу движения или начать маневр они нажимали кнопку на руле. Затем исследователи проанализировали данные из симулятора на предмет обнаружения шаблонов в момент перестроения. Где находились все автомобили на дороге? Как быстро двигался каждый из них? Притормаживали ли они или сохраняли скорость? Достаточно ли места было рядом с машиной водителя? Исследователи воспользовались полученными данными для обучения алгоритма, а затем посадили компьютер за руль и устроили повторные сеансы моделирования. Алгоритм мог точно предсказать

момент, когда водитель попытается перестроиться. Такие алгоритмы помогут беспилотным автомобилям принимать более разумные решения в конкретный момент времени. По словам ДриггсКэмпбелл, они также подходят для обучения автомобилей тактикам человеческого вождения.

Городские сети Несмотря на всю шумиху вокруг беспилотных автомобилей, они являются лишь частью более масштабной революции в сфере городского транспорта. Широкое использование ИИ в службах общественного транспорта облегчает наше передвижение по миру другими способами. Оба изменения происходят одновременно. Существует программа, связывающая посадку в автомобиль и сеть общественного транспорта. Например, к определенному времени за вами заезжает машина Uber. На ней вы должны успеть пересесть на поезд, до которого нужно проехать несколько километров. Чтобы не ломать голову выбором маршрута по городским улицам, вы можете просто выбрать пункт назначения, нажать кнопку в приложении и следовать указаниям. По мере объединения таких крупных систем, как Uber и департамент транспорта Лондона, перемещение человека из пункта А в пункт Б становится сравнимым с отправкой данных через Интернет. Тут могут возникнуть те же вопросы о беспристрастности, порожденные дебатами о «нейтралитете сети», при котором весь онлайн-трафик должен считаться равнозначным. Допустим, вам нужно проехать через весь Лондон, чтобы успеть на встречу через 15 минут. Насколько справедливой будет возможность заплатить дополнительные деньги за переключение всех сигналов светофоров на зеленый цвет, чтобы вы точно не опоздали на встречу?

Автомобили с совестью По мере того, как автомобили начинают принимать за нас важные решения, подобные случаи порождают серьезные этические вопросы. Для безопасного вождения в человеческом мире автономные транспортные средства должны научиться думать как люди или хотя бы понимать, как думаем мы. Но как этому научиться и каким конкретным людям они должны подражать? Это сложные вопросы. Специалист по этике Патрик Лин из Калифорнийского политехнического государственного университета в Сан-ЛуисОбиспо настаивает на том, что мы не можем позволить производителям делать все, что им вздумается.

Довольно часто этические проблемы, порожденные беспилотными автомобилями, сводятся к проблеме вагонетки – мысленному эксперименту, знакомому студентам-философам. Представьте себе, что вагонетка вышла из-под контроля, а впереди находятся пятеро ни о чем не подозревающих людей. Если ничего не сделать, то все они умрут. Либо же вы можете переключить стрелку. Тогда вагонетка поедет по другому пути, и умрет только один человек. Какое решение вы примите? Вопрос из той же серии: стоит ли автономной машине уходить от столкновения с нерадивым пешеходом, который внезапно выбегает на проезжую часть, если это приведет к резкому перестроению в соседнюю полосу? Или же, допустим, машина остановилась на перекрестке, чтобы пропустить школьников. Она вдруг понимает, что приближающийся сзади грузовик не успевает затормозить. Должна ли машина отъехать в сторону, чтобы защитить пассажиров автомобиля, либо же ей стоит принять удар на себя и спасти детей? Возможно, такие решения стоит программировать в машинах заранее. Но что именно мы должны делать в каждом конкретном случае?

Ответ на вопросы из серии «Что делать, если…» складывается из двух этапов. Для начала транспортное средство должно точно определить опасность, а затем принять решение о своих действиях. Первый этап зависит от эффективного сбора и обработки данных о местоположении и скорости других транспортных средств, пешеходов или прочих объектов.

Высоконравственные водители Некоторые опасности очевидны (например, не скатиться в реку на обочине дороги). Конечно же, очевидно далеко не все. Рассмотрим единственную смерть, связанную с технологией беспилотников. Инцидент произошел в 2016 году, когда система автопилота Tesla не смогла обнаружить, что белое пятно впереди – это не часть весеннего неба, а борт трейлера. Человек мог тоже ошибиться. Но иногда проблемы у беспилотных автомобилей возникают в ситуациях, которые мы способны решить интуитивно. Вот, например, самый обычный случай для нас, но крайне трудный для беспилотных автомобилей: человек, идущий за припаркованным автобусом. Разум человека уже готовится к повторному появлению этого пешехода, поэтому может точно просчитать, где и когда это случится. Однако для беспилотного автомобиля данная ситуация чревата сверхбольшой экстраполяцией. Даже если сенсорная система позволит автономному автомобилю идеально оценить окружающую среду, второй этап высокоморального вождения (сбор собранной информации, оценка относительных рисков и выполнение соответствующих действий) – это сплошная полоса препятствий. На базовом уровне все сводится к установлению правил и приоритетов. Например, избегать любого контакта сначала с людьми, потом с животными, а потом – с объектами недвижимости. Но что произойдет, если перед машиной встанет выбор: наехать на

вашу ногу или въехать в здание и нанести ущерб в миллионы долларов? В какой-то мере проблемой подхода, основанного на правилах, является отсутствие этих самых правил. Здесь, как минимум, отсутствует единый набор правил, который сенсорная система, основанная сугубо на физическом восприятии, могла бы реализовать. С одной стороны, такая система не сможет вычислить социальные сигналы, на которые мы полагаемся при вождении. С другой стороны, информация, полученная с видеокамер и эхосигналов, весьма ограничена. Обнаружить автобус – это одно. А вот обнаружить, что он полон школьников, – куда более серьезная проблема. В принципе, технически такое возможно. Через вмешательство человека можно запрограммировать данные о количестве и возрасте пассажиров. Эти данные будут транслироваться окружающим транспортным средствам. Либо же сенсоры внутри автобуса будут автономно отслеживать вес транспортного средства, включая рассадку людей на отдельных местах. Но кто определяет ценность чьей-то жизни? И как устранить дискриминацию с предвзятостью при программировании автомобилей?

Фальсификация Научить компьютеры распознаванию других автомобилей на удивление сложно. Хотя такие компании, как Google и Uber, и обучают свои программы путем практического вождения на миллионы миль в условиях реального мира, они также пользуются и заранее отснятыми видеоизображениями дорожной обстановки. Но здесь есть подвох: для определения других машин компьютерам нужны сотни тысяч тщательно размеченных изображений, отмечающих начало и конец транспортных средств. Это отнимает у людей много времени и сил. Но оказывается, что самоуправляемые автомобили могут изучить правила дорожного движения на примере виртуального трафика в

видеоиграх по типу Grand Theft Auto V. Выбор автомобиля в игре – это идентичная задача из реального мира с преимуществом в виде размеченных элементов, созданных алгоритмом игры. Группа Мэтью Джонсона-Роберсона из Мичиганского университета в Анн-Арбор обнаружила, что обученные на базе игры алгоритмы ничуть не уступают программам, натренированным на реальных дорогах по части обнаружения машин в предварительно размеченном наборе данных. Для достижения такого же уровня в видеоиграх необходимо было добавить в 100 раз больше обучающих изображений. Но учитывая, что 500  000 изображений можно сгенерировать из игры за одну ночь, – никаких проблем не возникло. Это не первый случай, когда исследовательская группа пользовалась видеоиграми для обучения искусственного интеллекта. Использование симуляций для тренировки ИИ стремительно набирает обороты. В другом примере команда Хавьера Ромеро из Института интеллектуальных систем Макса Планка в Тюбингене, Германия, пользовалась симуляциями людей для того, чтобы помочь компьютерам разобраться в поведении реальных людей. По задумке исследователей, сгенерированные компьютером видео и изображения идущих, танцующих или делающих «колесо» людей позволят компьютерам понять, на что следует обращать внимание. Исследователи создали тысячи видеороликов «синтетических людей» с реалистичными формами тела и движениями. Они ходят, бегают, приседают и танцуют. Они даже могут передвигаться самым неожиданным образом, но в них всегда можно распознать людей. А поскольку все видео генерируются компьютером, то каждый кадр автоматически маркируется важной информацией. Это позволяет ИИ научиться распознаванию шаблонов в том, как пиксели меняются из кадра в кадр, указывая на дальнейшее движение человека. Обученный таким образом беспилотный автомобиль сможет предугадать намерение человека выйти на проезжую часть.

Занавес неведения Один из способов избегать щекотливых вопросов – игнорировать их. В конце концов, водитель-человек тоже ничего не знает о тех, кто находится в окружающих его транспортных средствах. Принцип «занавеса неведения» сводится к созданию ответов на простые версии возможных сценариев путем предпрограммирования либо разрешения машине обучаться в процессе работы. Первый подход осложняется тем, что никто не может предвидеть все возможные ситуации. Например, в 2014 году автомобиль Google столкнулся с женщиной в электрической инвалидной коляске, которая прогоняла утку с дороги с помощью метлы. Второй подход кажется более перспективным. Скажем, по мере своего движения автомобиль узнает, что нерадивые пешеходы чаще выбегают на городские, а не проселочные дороги, но зато предотвращение наезда на пешехода на тихой проселочной дороге снижает вероятность столкновения с кем-то другим. Или что иногда можно нарушить скоростной режим, чтобы пропустить машину скорой помощи. Тем не менее все основные правила необходимо программировать в системе заранее. И здесь возникают совершенно новые этические проблемы: программист не может предсказать, как именно должна поступить машина в конкретной ситуации. Мы не хотим, чтобы автономные транспортные средства действовали непредсказуемо. Важно, чтобы не только автомобили могли предугадывать действия других участников движения, но и люди знали, чего ожидать от поведения машины. Отсюда вытекает вопрос: как поступит автономная машина, когда столкнется с проблемой вагонетки? Некоторые люди уверены, что не стоит зацикливаться на крайностях. Вероятность появления подобной ситуации – одна на миллион. Быть может, разумнее будет научиться решать более распространенные проблемы. Например, как избегать наездов на

пешеходов, как оставаться в пределах полосы, как безопасно ездить при плохих погодных условиях, как обновлять программное обеспечение автомобилей, защищая их от атак хакеров. Возможно, они правы. Но тогда теряется так называемый мыслительный эксперимент. Те, кто прибегает к мыслительному эксперименту, хотят наглядно доказать тот факт, что автопроизводители не имеют морального права в одиночку принимать все решения по своим машинам. В настоящий момент такие компании, как Tesla и Google, недавно объявившие об отказе от создания собственных автомобилей в пользу поставки программного обеспечения другим производителям, работают над своими алгоритмами в закрытом режиме, невзирая на все более громкие призывы к прозрачности и общим стандартам. В 2016 году команда Министерства транспорта США выпустила первый документ, регламентирующий федеральную политику в отношении автоматизированных транспортных средств. В одном из 15 пунктов, которыми должны руководствоваться разработчики автономных транспортных средств, фигурирует этика принятия решений и призыв к прозрачности своей работы для «предотвращения конфликтных ситуаций». Документ также призывает компании консультироваться и предлагать решения с «широкой допустимостью». Аналогичные призывы прозвучали в Великобритании и Германии. «Нельзя ждать, что автономные транспортные средства будут принимать этические решения, для которых общество не дало четких и согласованных инструкций», – такое мнение в 2017 году выразил в официальном документе, составленном юридической фирмой Gowling WLG, Тим Армитидж из отраслевого консорциума UK Autodrive. –  Идеальных решений не существует,  – предупреждает Ник Бостром, философ из Оксфордского университета и директор Института будущего человечества. – Мы должны признать, что под колесами этих автомобилей будут погибать люди. И наша задача

состоит не в том, чтобы создать идеальную систему, а в том, чтобы создать такую систему, которая окажется лучше той, что у нас есть. Ведь около 50 миллионов людей в год погибают или получают травмы на дорогах.

Правила уличного движения Можете называть их тремя законами беспилотников. В 2016 году министр транспорта Германии Александр Добриндт предложил законопроект о создании первой правовой базы для автономных транспортных средств. Она должна была регулировать схемы действий беспилотных машин при столкновениях с возможными летальными исходами. Законы пытаются решить проблему «мертвой зоны» автономных машин – неясной градации между полуавтономными и беспилотными автомобилями, которая может отсрочить будущее беспилотников. Добриндт хочет добиться трех вещей: чтобы автомобиль всегда выбирал материальный ущерб вместо физического урона; чтобы автомобиль никогда не разграничивал людей по ряду признаков, включая возраст и расу; чтобы автопроизводитель нес ответственность за возникновение аварий в случаях, когда человек убирает руки с руля (например, для проверки электронной почты). «Корректировка закона о дорожном движении разрешит использование полностью автоматизированного вождения»,  – говорит Добриндт. Министр намерен полноценно приравнять автономные автомобили к водителям-людям. Отсутствие ясности о зонах ответственности сторон при эксплуатации автономных машин вызывает замешательство автопроизводителей, потребителей и юристов. В Соединенных Штатах основные принципы для компаний, тестирующих беспилотные автомобили, гласят, что человек должен постоянно следить за дорогой. Это же условие с 2016 года фигурирует в британских страховках для беспилотников, в которых говорится о том, что человек «должен быть предельно внимателен и следить за

дорожной обстановкой» в любой момент. Логично, что при разговорах о беспилотных автомобилях на ум приходят совершенно иные определения. –  Когда вы говорите «беспилотные автомобили», люди действительно ожидают увидеть автомобили без водителей,  – рассказывает Наташа Мерат из Лидского университета в Великобритании. – Вы понимаете: водителя там нет. Добриндт и другие придерживаются правила десяти секунд, которое требует от человека быть достаточно внимательным, чтобы суметь взять на себя управление транспортным средством за десять секунд. Точно так же Mercedes может потребовать от водителя касаться руля несколько раз в минуту. Но десяти секунд бывает недостаточно. То, что вы положили руки на руль, не говорит о том, что вы управляете автомобилем. Мерат обнаружила, что людям нужно около 40 секунд для восстановления концентрации внимания, в зависимости от того, чем они занимались в данный момент. Мерат полагает, что из-за отсутствия ясности некоторые автопроизводители будут ждать полной автоматизации автомобилей без вмешательства человека. По словам Райана Кало из Стэнфордского университета в Калифорнии, в итоге беспилотные автомобили могут стать разновидностью общественного транспорта (как беспилотные модули, которые в настоящее время запущены в некоторых городах), а не личным автомобилем. Но в США из этого ничего хорошего не выйдет. «Идея того, что правительство перейдет на беспилотные автомобили и станет относиться к ним как к общественному благу, ни к чему не приведет», – подытоживает Кало.

Врачи с искусственным разумом Машины уже преобразили сферу здравоохранения. Сканеры МРТ могут заглянуть внутрь тела, а образцы крови теперь исследуются автоматически. Но человеческие навыки всегда являлись неотъемлемой частью процесса: сканирование обнаруживает затемнение, а онколог трактует его важность. Тем не менее довольно скоро программы сами смогут ставить диагноз на основе одних лишь медицинских данных.

Врачи часто заняты и перегружены работой. Они могут ошибаться или не замечать явных симптомов. Если компьютеры смогут посвоему понять, что такое здоровье, то, возможно, им будет под силу ускорить процесс диагностики и даже повысить ее точность. Возьмем, к примеру, обнаружение рака молочной железы. Для постановки диагноза часто требуется информация из трех источников: рентген, МРТ и УЗИ. Изучение таких «перекрестных ссылок» весьма трудоемко и занимает много времени. Конечно, если вы не используете глубокое обучение. Исследователи из Тель-Авивского университета в Израиле используют глубокое обучение для анализа рентгенограммы грудной клетки. Их система может отличить увеличенное сердце от скопления жидкости в легких. А другая группа исследователей из Клинического центра Национального института здоровья в Бетесде, штат Мэриленд, пользуется аналогичными методами для выявления раковых образований на позвоночнике. Watson от IBM тоже обратился к диагностике. В одном случае у него ушло всего несколько минут на обнаружение у пациента признаков редкой формы вторичной лейкемии. При других способах диагностики на выявление такого заболевания потребовались бы недели. У DeepMind от Google также есть несколько медицинских проектов, в том числе обнаружение ранних признаков заболеваний глаз.

DeepMind сотрудничает с Национальной службой здравоохранения Великобритании на предмет получения доступа к большим объемам данных о пациентах. Например, благодаря партнерству с глазной больницей Moorfields в Лондоне DeepMind сможет загрузить в свой ИИ порядка миллиона анонимных снимков сетчатки. Этот проект нацелен на выявление двух наиболее распространенных глазных заболеваний: возрастной макулодистрофии и диабетической ретинопатии. Более 100 миллионов человек во всем мире страдают от данных заболеваний. Информация, которую предоставляет Moorfields, включает в себя сканирование задней части глаз, а также более детальные снимки, известные как оптическая когерентная томография (ОКТ). По задумке исследователей такие изображения позволят нейронным сетям DeepMind научиться распознаванию едва различимых признаков дегенеративных состояний глаз, которые трудно определить даже опытным врачам. Таким образом, системы машинного обучения смогут обнаружить признаки заболевания до того, как это сможет сделать врач-человек. В 2005 году команда Гади Воллштейна, врача-офтальмолога из Питтсбургского университета, изучала использование нейронных сетей для диагностики заболеваний глаз. Но у исследователей был гораздо меньший набор данных, чем у DeepMind. Воллштейн считает, что важнейшее значение имеет именно большой набор данных, поскольку он развивает способности нейронной сети к распознаванию болезней глаз более точно и полно.

Перегрузка данных Офтальмологи все чаще используют высокодетализированное ОКТ-сканирование. Но это может привести к перегрузке данных. По словам Воллштейна, довольно часто врачу бывает трудно увидеть четкие закономерности и поставить верный диагноз. Он считает, что

машина проявила бы себя лучше. Офтальмолог Moorfields Пирс Кин, обратившийся к DeepMind в 2015 году, считает, что любая программа для автоматической диагностики, предлагаемая DeepMind, может найти свою сферу применения у оптиков, использующих ОКТ. Партнерство DeepMind с Moorfields позволяет нам заранее оценить, как сможет работать рынок машинного обучения. Работа DeepMind, выполняемая для Royal Free или глазной больницы Moorfields Eye, оплачиваться не будет. В то же время у компании есть возможность протестировать свои алгоритмы на реальных наборах данных с серьезными патологиями, и с этими данными DeepMind сможет поддерживать свои нейронные сети для дальнейшего обучения. Ценные знания о глазных болезнях, содержащиеся в анонимном наборе данных Moorfields, станут собственностью DeepMind и будут встроены в его системы искусственного интеллекта. По сути, машинное обучение систем на реальных медицинских данных и является платой для DeepMind за развитие в области диагностического ИИ. Но смогут ли врачи – или пациенты – когда-нибудь довериться машинам? Сложные сети глубокого обучения крайне трудно понять. Они склонны выдавать заключения без объяснения причин. Например, если Facebook предлагает вам какого-то пользователя в списке возможных друзей, то даже инженер Facebook не сможет объяснить, почему был выбран именно этот человек. Примените такую же загадочную логику в медицине, и люди начнут беспокоиться. Один из способов убедить практикующих врачей перейти на системы искусственного интеллекта – использование результатов программ глубокого обучения для тренировки других алгоритмов – прозрачных моделей, дающих ответы, которые люди смогут изучить и понять. Нам важно понять и принять тот факт, что работа в данной области будет зависеть не только от людей, но и от самого ИИ.

Роботы-убийцы Одним из самых горячих споров в области развития искусственного интеллекта является создание так называемых роботов-убийц. Сторонники автономного оружия утверждают, что войны, которые машины будут вести вместо людей, окажутся более гуманными. Нарушения прав человека от действий солдат во время конфликтов – слишком распространенная практика. Но окажутся ли машины лучше? Пока одни считают саму идею возмутительной, другие верят, что машины не только могут, но и должны проявить себя лучше людей. «В наше время люди нещадно уничтожают друг друга на поле боя,  – рассказывает Рональд Аркин, эксперт по робототехнике из Технологического института Джорджии в Атланте. – Я не могу сидеть сложа руки и ничего не делать. И верю, что технологии смогут помочь».

Развитие автономных систем летального вооружения, то есть роботов-убийц, сейчас в самом разгаре. И многие армии по всему миру ищут способы уберечь своих солдат от попадания на линию огня. Если отправлять туда роботов вместо людей, то это спасет множество человеческих жизней, особенно в государствах, обладающих передовыми технологиями. И в отличие от людей, роботы не станут нарушать правила. Этот вопрос уже активно поднимается на международной арене. За последние несколько лет Организация Объединенных Наций не раз обсуждала так называемые автономные системы летального вооружения. А появление ярой оппозиции в лице таких групп, как кампания против роботов-убийц, указывает на все большую актуальность данных дискуссий. Девять стран НАТО призвали запретить автономные системы летального вооружения, а многие другие заявили о том, что люди должны сохранять максимальный контроль над роботами.

Роботы уже играют несколько ролей на поле сражения. Одни перевозят оборудование, другие разбирают бомбы, а третьи отвечают за наблюдение. Дроны с дистанционным управлением помогают операторам направлять удары по объектам, удаленным на тысячи километров. А новейшие машины выводят дроны на новый уровень. Они способны выбирать и поражать цели с минимальным вмешательством человека или вообще без него. Поэтому зачастую разрешение открыть огонь – все, что остается под контролем человека. Противоракетная система ВМС США Phalanx на борту кораблей Aegis может сама производить «определение степени поражения», взвешивая шансы на успешное поражение цели. Британская фирма BAE разрабатывает безэкипажный самолет под названием Taranis. С незначительным вмешательством людей (если оно вообще требуется) он может взлетать, следовать заданному маршруту и идентифицировать объекты, представляющие интерес. Это прототип, который не перевозит оружия, но он наглядно демонстрирует техническую осуществимость таких летательных средств. Между тем стало известно, что российский «мобильный робототехнический комплекс» (безэкипажный танковый транспорт, охраняющий установки баллистических ракет) и южнокорейская турель Super Aegis II могут обнаруживать и стрелять по движущимся целям без надзора человека. Super Aegis II способна точно определить человека с расстояния в 2,2 км. Производители оружия не любят раскрывать подробностей, и большинство спецификаций засекречено. Однако ясно, что технология перестала быть сдерживающим фактором. По словам представителя британского производителя ракетных вооружений MBDA, «технология не будет ограничивать то, что возможно в будущем». Наоборот, автономное оружие будет ограничиваться политикой, а не возможностями.

Убийца морских звезд

В 2016 году роботы стали стрелять на поражение, не задавая вопросов. Это не ремейк «Робокопа», а реальная история, произошедшая на Большом барьерном рифе в Австралии. Тогда машина вышла на тропу войны с морскими звездами, которые разрушали кораллы. Робот-убийца по имени COTSbot стал одним из самых совершенных автономных комплексов вооружения в мире. Он мог выбирать цели и применять силу без вмешательства человека. Робот, истребляющий морских звезд, может и не производить впечатление всемирно важной разработки, однако тот факт, что он был выпущен на риф, стал глобально значимым событием. Выпуск робота на рифы ознаменовал точку невозврата. COTSbot наглядно демонстрирует, что теперь у нас есть технология для создания роботов, которые могут самостоятельно выбирать цели и принимать решения о необходимости убийства. Уже вполне очевидны потенциальные сферы применения таких роботов в жизни человека, начиная от боевых операций и заканчивая правоохранительной деятельностью. В этом плане COTSbot представляет собой отличную возможность для проверки заявлений об автономности, точности, безопасности, устойчивости к взломам и т. д. в сравнительно благоприятной среде. К тому же это отличная возможность показать, что автономные роботы могут творить как добро, так и зло. Но истинное значение данной разработки заключается в том, что она показывает нам: «Робокоп» становится все более реальным.

Правила ведения боевых действий Каковы же тогда правила войны? Нет законов, касающихся непосредственно роботов, но все оружие должно соответствовать определенным конвенциям. Один из ключевых принципов заключается в том, что гражданские лица и гражданская

собственность не должны подвергаться преднамеренным нападениям, а оружие должно быть в состоянии отличить мирных жителей от солдат. И применение силы должно быть соразмерным – нельзя, чтобы ожидаемое военное преимущество атаки перевешивалось сопутствующим ущербом. Рональд Аркин считает, что если в этих условиях автономная система летального вооружения проявит себя эффективнее солдатлюдей по части сокращения потерь среди мирных жителей, то запреты на развитие этой технологии станут грубой ошибкой. «Нельзя забывать об ошибках и слабостях людей в современных войнах, – говорит он. – Если мы сможем добиться большего успеха, чем они, то спасем жизни». Другие ученые еще больше подкрепляют мнение Аркина. Эрик Шехтер из Университета Вандербильта в Нэшвилле, штат Теннесси, сказал Wall Street Journal следующее: «Если цель международного гуманитарного права состоит в снижении потерь среди мирного населения в военное время, то использование роботов-снайперов окажется не просто уместным шагом, но и нашим моральным долгом». Роботы могут сохранять и солдатские жизни. Вместо нанесения воздушного удара по предполагаемой вражеской базе, расположенной, например, в густонаселенном городском районе, роботы могли бы заходить в здание первыми, перед солдатамилюдьми, принимая на себя основные риски. Во всех высокорискованных операциях машины должны идти в первых рядах.

Право на достоинство Это весьма спорная тема. Для многих людей сама идея того, что компьютерная микросхема обладает властью над жизнью и смертью других, вызывает отторжение. По словам Кристофа Хейнса,

специального докладчика ООН по вопросам о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях, такая система может противоречить нормам гуманитарного права и права человека на достоинство. «Люди должны быть тесно вовлечены в принятие такого решения. В противном случае будет нарушаться ваше человеческое достоинство»,  – говорит Хейнс. Он отмечает, что объекты атаки робота не смогут воззвать к его человечности, как сделали бы в случае, если бы оружие находилось в руках человека. Это ничем не лучше истребления, говорит он. Дроны с дистанционным управлением не дают возможности для мольбы о пощаде. Но, по крайней мере, ими управляет оператор-человек, пусть даже удаленно, и именно он должен принимать этические решения. «Надежда на то, что это возможно, все еще есть,  – комментирует Хейнс. – А надежда – это часть жизни с достоинством». По большому счету Хейнс опасается того, что сам называет «деперсонализацией силы». В докладе ООН за 2013 год он предупредил, что «неутомимые военные машины, готовые действовать по нажатию кнопки», могут привести к нескончаемому конфликту в будущем. Если государствам не нужно будет вводить свои войска на чужую территорию, то вступление в войну может стать излишне легким шагом. Даже если машины будут сражаться с другими машинами, огромные сопутствующие потери будут разрушать инфраструктуру страны. А поскольку число жертв существенно снизится, то войны будут продолжаться дольше, сдерживая послевоенное восстановление. Ноэль Шарки, исследователь искусственного интеллекта и робототехники из Шеффилдского университета в Великобритании, а также лидер кампании против роботов-убийц, десятилетиями пытался привлечь внимание международного сообщества к этому вопросу. Ключевым фактором его решительной кампании выступает понимание недостатков современных технологий. Пока Аркин следит за технологиями будущего, Шарки обеспокоен настоящим. «Я

могу создать вам робота-убийцу, который будет искать характерные признаки человека и стрелять в него. На это потребуется не более недели,  – заявляет он.  – Проблема заключается в том, чтобы отличить мирного жителя от вражеского солдата». Ухватить эту мысль довольно сложно. Возьмем, например, Aralia Systems – британскую фирму, предоставляющую программы по анализу изображений для приложений систем безопасности. Она может заметить подозрительную активность на записях с систем видеонаблюдения. В 2015 году система зафиксировала деятельность группы людей, которые, как впоследствии выяснилось, выбирали подходящее общественное место для установки бомбы. По словам Райта, данные лица были задержаны и успешно привлечены к ответственности. Но соучредитель компании Глинн Райт открыто признает, что до принятия мгновенных решений в сильно загруженной городской среде еще далеко.

Интервью. Должны ли мы запретить автономное вооружение? Марк Бишоп, профессор когнитивных вычислений в Голдсмитском колледже Лондонского университета, возглавляет Общество по изучению искусственного интеллекта и моделированию поведения. В этом интервью 2013 года для New Scientist он объясняет, почему так важен запрет на оружие, которое может размещаться и уничтожать цели без вмешательства человека. – Что такое кампания против роботов-убийц? –  Это конфедерация НПО и инициативных групп, лоббирующих запрет на создание и размещение полностью автономных систем вооружения, в которых у человека нет возможности выбора точной цели и принятия окончательного решения о нападении. – Насколько мы близки к их реализации? –  Подобные прецеденты уже были. Некоторые системы существовали уже довольно давно. Например, артиллерийская система Phalanx, которой пользуется большинство кораблей ВМС США для обнаружения и автоматического реагирования на

возникающие угрозы. Еще пример: беспилотный летательный аппарат израильской Harpy «Выстрелил и забыл» (fire-and-forget), который ищет и уничтожает радиолокационные установки. – Что движет развитием технологий? – Текущая западная военная стратегия больше ориентирована на дроны, нежели на традиционные силы. Но дроны с дистанционным управлением легко перехватить. Полностью автономные системы практически невосприимчивы к хакерским атакам. К тому же они снижают затраты. Это означает, что производители могут продавать больше. Так что, с коммерческой точки зрения, разработка автономных систем довольно выгодна, а правительство заинтересовано в их развертывании. – Какие существуют опасности? –  Есть причины сомневаться в том, насколько правильно автономные системы смогут судить о необходимости атаковать, разумно реагировать на угрозы и корректно разграничивать мирных жителей и вражеские силы. К тому же при взаимодействии со сложными программными системами возникает огромный потенциал для непредвиденных обстоятельств. Яркий пример тому произошел на Amazon в 2011 году, когда автоматические боты для установки цен подняли стоимость книги The Making of a Fly до 23 миллионов долларов. – Обеспокоены ли вы возможной эскалацией? –  Да. Ученые из Южной Кореи разрабатывают робота для патрулирования границы с Северной Кореей. При его неправильном развертывании или некорректной/нерациональной атаке можно с легкостью представить себе, как незначительное вторжение на границу перерастает в серьезную конфронтацию. Еще более пугающим примером стал случай из 1983 года, когда во время американских военных учений Able Archer российские автоматические системы безопасности ошибочно обнаружили приближающуюся ракету, и лишь вмешательство российского полковника предотвратило начало ядерной войны. Но вероятность

дальнейшей эскалации пугает еще сильнее при наличии автономных систем, взаимодействующих друг с другом. – Разве роботы не могут снизить риски для людей? –  Существует мнение, например американского робототехника Рональда Аркина, будто роботы способны к более беспристрастной оценке, нежели солдаты – скорбящие или жаждущие мести. Мало того, что подобное отношение не решает проблемы эскалации, так еще и не доказывает надежность систем в процессе принятия решений об атаке, соразмерной оценке и точном определении целей. – И что же нам делать? – Технология, стоящая за автономными системами, имеет и другие области применения. Например, система управления автомобилями от Google. Поэтому запретить такие разработки будет трудно. Здесь нам стоит прийти к глобальному соглашению о запрете размещения автономного вооружения.

Отдать приказ Даже если машина научится различать мишени и мирное население, то насколько хорошо она сможет проявить себя при принятии решений этического характера на основании имеющихся данных? Аркин уверен, что в этом нам бы помогла разработка программы, выступающей в роли «этического регулятора». Именно он будет определять реакцию робота на различные обстоятельства. И все же сложность подобной разработки приводит к тому, что такие идеи не выходят за рамки чертежной доски. По состоянию на сегодняшний день человек должен оставаться главным. Но что это значит? Споры о роботах-убийцах вновь и вновь возвращаются к данной теме. А результативность призывов к запрету автономных систем летального вооружения будет зависеть от того, что именно станут считать решением, принятым человеком.

Пока что нет ни одного общепринятого определения. Есть и другая проблема: если заниматься только вопросом роботов-убийц, то потеряются другие важные проблемы, связанные с взаимодействием людей и машин. Вовлеченность человека в процесс не означает исчезновение проблемы с высокотехнологическими убийствами. Например, в 2003 году оператор американской ракетной батареи Patriot получил автоматическое оповещение об обнаружении приближающейся иракской ракеты. У оператора была доля секунды на принятие решения. Он пришел к выводу, что нужно принять защитные меры, и дал команду открыть огонь. Но мишенью оказался истребитель Tornado RAF, оба пилота которого погибли от ракетного удара. Что же пошло не так? Система, безусловно, неправильно опознала истребитель. Но следствие установило, что это произошло из-за того, что операторы не были должным образом обучены. Как выяснилось, система не была подключена к более широкой сети, которая могла бы дать оператору информацию о том, что истребитель находился в контакте с авиадиспетчерами и не представлял угрозы. В данном случае корнем проблемы являлась именно вовлеченность человека в рабочий процесс. Вне зависимости от результатов обсуждений в ООН проблемы создания автономных систем летального вооружения не так просты, как нам кажется. Машины – с полной или частичной автономностью – уже стали частью военных действий. А обещание включить человека в технологический процесс не гарантирует отсутствия ошибок. Машины не упрощают войну – они ее усложняют. И здесь у нас много общего.

5. В неизвестность Как компьютеры могут победить недостатки человеческого разума

В настоящее время компьютеры скорее дополняют человеческий интеллект. Но некоторые машины научились решать проблемы, не ограничиваясь пределами возможностей человеческого разума. Это позволяет им изобретать новые гаджеты или даже переосмысливать пределы математической науки. Смогут ли машины вытеснить мыслителей и изобретателей? Ведь даже в тех отраслях, в которых машины превосходят людей, их открытия окажутся полезными, только если человек сможет понять изобретение и найти ему область применения.

Эвристические машины Мы привыкли, что случай и изобретательность идут рука об руку. Взять, к примеру, появление моторных полетов. В один из летних дней 1899 года веломеханик из Дейтона, штат Огайо, достал из упаковки новую шинную камеру и передал ее покупателю. Они разговорились. В процессе этой беседы механик бездумно вертел в руках пустую коробку, вращая ей взад и вперед. Тогда он заметил, что верхняя часть коробки выписывала плавную спиральную кривую. Это было обычным наблюдением, которое в дальнейшем изменило весь мир.

Форма коробки была схожа с механикой крыла голубя в полете. Наблюдая за траекторией движения коробки, Уилбур Райт пришел к выводу, что простое вращение рамы, поддерживающей крылья биплана, позволит управлять самолетом в воздухе. Самолет братьев Райт – лишь один из многих примеров. Другим случаем стало изобретение текстильной застежки-липучки. Жорж де Местраль создал этот материал после того, как заметил крючки, с помощью которых головки репейника цеплялись к шерсти собаки. Еще один пример: жидкая пластичная смесь Гарри Кувера совершенно не подошла для использования в оптических прицелах, поскольку прилипала ко всем поверхностям. Зато нашла свою нишу, став суперклеем. Несмотря на кажущийся романизм подобных ситуаций, данный способ ведет к крайне медленному развитию технологий. Полагаться на случайность – значит отсрочить появление изобретения, которое могло быть открыто уже сегодня. «Сам процесс изобретения человеком чего-либо – весьма архаичен и неэффективен»,  – рассказывает Джулиан Нолан, генеральный директор компании Iprova, расположенной в Лозанне, Швейцария, и специализирующейся на открытии изобретений. По его мнению, за

сотни лет ничего не изменилось. «И он идет совершенно не в такт с большинством других отраслей». Но мы стараемся сами создавать свое везенье. И эти эвристические моменты скоро можно будет запускать по команде, ведь полет фантазии заменится надежными операциями программ. Компьютерные открытия уже окружают нас повсюду, начиная с алгоритмов – имитаторов естественного процесса создания лучших проектов и заканчивая системами, подбирающими ниши для новых проектов среди существующих запатентованных технологий. Влияние программ может оказаться огромным. Некоторые эксперты полагают, что автоматизированные изобретения способны ускорить технический прогресс. А еще они могут уравнять правила игры, превратив каждого из нас в изобретателя. Но что произойдет, если важность идей обесценится? Например, если вы претендуете на получение патента, то ваша идея не должна быть «очевидной». Так как же это применить к открытиям, сделанным грубой силой?

Что такое генетические алгоритмы? Генетические алгоритмы, также известные как эволюционные, решают проблему проектирования, имитируя естественный отбор (см. рис.  5.1). Желаемые характеристики описываются в качестве генома, в котором гены представляют собой такие параметры, как, например, напряжение, фокусное расстояние или плотность материала. Процесс начинается с более или менее случайной выборки геномов, каждый из которых может (хотя и не обязательно) обладать собственным дизайном. При скрещивании родительских геномов из начального генофонда и введении «мутаций» создаются потомки с особенностями каждого из родителей и потенциально полезными новыми чертами. Пригодность потомства для решения данной задачи проверяется в моделировании. Отбираются лучшие представители потомства, которые становятся генофондом для следующего этапа скрещивания. Процесс

повторяется снова и снова, пока, как и при естественном отборе, не «выживает» наиболее пригодный проект. Помимо изобретения новых проектов, генетические алгоритмы можно использовать для развития «паразитов», способных причинить максимальный ущерб тестовым средствам защиты и безопасности. «Природа совершенна и изобретательна по части поиска лазеек в сложных системах»,  – говорит Эрик Бонабо из Icosystem of Cambridge (штат Массачусетс), который воспользовался данной техникой для улучшения дизайна кораблей ВМС США.



Рис. 5.1. Генетические алгоритмы пытаются найти оптимальное решение проблемы путем многократного объединения и мутации лучших экземпляров в каждом поколении потенциальных решений





Как заложено природой

Первую группу исследователей, имитирующих эволюцию в патентовании дизайна и впервые применивших так называемые генетические алгоритмы, возглавил Джон Коза из Стэнфордского университета в Калифорнии в 1990-х годах. Команда проверяла алгоритмы, стараясь выяснить, смогут ли они заново изобрести ряд основных составляющих в проектировании электроники: ранние фильтры, усилители и замкнутые системы управления, созданные Bell Labs в 1920–1930-х годах. Им это удалось. «Мы смогли заново изобрести все классические схемы Bell Labs, – рассказывает Коза. – Если бы в то время существовали современные методы, то такие схемы могли бы создать генетические алгоритмы». Чтобы исключить случайность открытий, команда исследователей повторила процедуру с шестью запатентованными конфигурациями глазных линз, используемых в различных оптических устройствах. Алгоритм не только воспроизвел все оптические системы, но и в ряде случаев улучшил оригиналы пригодными для патентования способами. Универсальность генетического алгоритма демонстрируется в изобретениях, показываемых на ежегодной конференции по генетическим и эволюционным вычислениям (GECCO). Типичные инновации варьируются от эффективных стилей плавания для осьминогоподобного подводного дрона и проектирования компьютерных микросхем с низким энергопотреблением до самого экономичного маршрута для будущего космического зонда при очистке околоземных орбит. Чтобы правильно рассчитать маршрут, инженеры из лаборатории перспективных концепций Европейского космического агентства в Нордвейке, Нидерланды, решили рассмотреть задачу в качестве космической разновидности знаменитой туристической проблемы коммивояжера. Только вместо городов их зонд посещал заброшенные спутники и сломанные корпуса ракет, а затем сбрасывал их с орбиты. Самая значимая награда в GECCO – за конкурентоспособность человеку, или Humie. Она присуждается за открытия, конкурирующие с человеком по

изобретательности. В 2004 году первая награда Humie была вручена за антенну сложной конфигурации, которую разработали для проекта, финансируемого NASA. Антенна работала идеально, несмотря на аляпистый внешний вид – вместо обычной палочковидной антенны это был как будто тонкий стебель с горсткой нескладно наклоненных ветвей. Конечно же, дизайнер вряд ли бы додумался до такого изобретения. Но в этом и суть. «Компьютеры, используемые для автоматизации процесса изобретения, не подвластны стереотипности изобретателей-людей, – поясняет Роберт Плоткин, юрист-патентовед из Берлингтона, штат Массачусетс.  – Именно поэтому они могут создавать такие проекты, о которых человек даже и не додумается».

В неизвестность В использовании генетических алгоритмов есть лишь одна проблема: вы должны заранее знать, что именно хотите изобрести. Тогда работа вашего алгоритма будет плодотворной. Как правило, генетические алгоритмы хороши для оптимизации уже существующих изобретений, но мало подходят для создания чего-то по-настоящему нового. Так происходит потому, что они не делают больших новаторских шагов. Это также означает, что у них меньше шансов на создание коммерчески ценного достижения. Один из подходов заключается в использовании программ, помогающих изобретателям отследить упущенные признаки проблемы, решение которой могло бы привести к новому открытию. «Изобретение – это нечто новое; то, что не было изобретено ранее, потому как люди упустили из виду хотя бы одну вещь, которую заметил изобретатель,  – рассказывает Тони МакКаффри, директор по технологиям в Innovation Accelerator из Натика, штат Массачусетс.  – Если помочь людям в обнаружении скрытых

признаков проблемы, то повысится вероятность того, что они заметят ключевые элементы, способные решить данную проблему». Для этого в Innovation Accelerator имеется специальная программа, которая может описать проблему человеческим языком. Затем она «разбивает» проблему на большое количество связанных фраз и использует их для поиска по базе данных аналогичных изобретений в Ведомстве по патентам и товарным знакам США. Такая система предназначена для поиска аналогов решения проблемы в смежных областях. Другими словами, программа способна к нестандартному мышлению. В одном примере МакКаффри попросил систему придумать способ по снижению количества травм с сотрясением мозга у игроков в американский футбол. Программное обеспечение разделило описание проблемы на отдельные слова и занялось поиском способов по уменьшению энергии, поглощению энергии, обмену силами, уменьшению импульса, силе противодействия, изменениям направления и отражению энергии. Результаты по запросу «отражение энергии» помогли фирме изобрести шлем с сильными магнитами, отталкивающими шлемы других игроков, благодаря чему снижались последствия ударов головой. К сожалению, в патентном ведомстве кто-то опередил эту компанию на несколько недель. Но само изобретение лишний раз доказало правильность используемого принципа. В другом примере программа воспроизводила последние новшества при производстве лыж. Задача состояла в том, чтобы придумать, как остановить вибрацию лыж, чтобы лыжники могли быстрее передвигаться и безопаснее поворачивать. Спустя какое-то время производитель придумал свое решение, однако программа Innovation Accelerator нашла его быстрее. «Изобретатель скрипки придумал метод создания более чистой музыки путем снижения вибраций в инструменте,  – продолжает МакКаффри.  – Этот метод применили к производству лыж, благодаря чему вибрации лыж значительно уменьшились».

Выявление рыночных тенденций Технология фирмы Нолана Iprova помогает изобретателям с нестандартным мышлением. Но источники подобных идей находятся далеко за пределами патентных документов. Компания не спешит раскрывать секреты работы своей методики Computer Accelerated Invention. Однако в патенте 2013 года Iprova заявляет, что предлагает клиентам «рекомендованные инновационные возможности» путем просмотра не только патентных баз данных и технических журналов, но и блогов, новостных сайтов и социальных сетей. Особый интерес вызывает тот факт, что алгоритм может менять свои предложения по мере изменения технологических трендов в сети. И результат оказывается чрезвычайно продуктивным. Компания использует собственную технологию и создает сотни изобретений в месяц. Клиенты могут выбрать любое из изобретений для создания патента. Если судить по широкому кругу клиентов в сфере здравоохранения, автомобилестроения и телекоммуникаций, то Iprova, похоже, добилась успеха. Один из клиентов компании – Philips, крупная международная технологическая корпорация. Такие фирмы редко привлекают к своим командам исследований и разработки внешних экспертов. Все это говорит о том, что открытия, сделанные алгоритмом, имеют все шансы стать самым эффективным изобретательским процессом в будущем. «Человеческие изобретатели, которые научатся пользоваться автоматизированными компьютерными инновациями, станут на голову выше своих коллег, продолжающих изобретать что-то по старинке»,  – говорит Плоткин. Но как же провести ту самую черту? Ведь может получиться так, что при правильном разделении труда никаких четких границ между человеком и алгоритмом существовать не будет. Однако если разделение труда окажется на стороне компьютера, то это может подорвать всю патентную систему. В настоящее время «рядовой

обыватель» верит, что если на изобретение выдается патент, то оно не является очевидным. Однако если изобретатели работают за компьютером, то изобретения могут казаться очевидным результатом компьютерных вычислений, как, например, горячая вода из чайника. Как говорится, счастливый случай благоволит подготовленному уму. Если бы Уилбур Райт не думал о своем самолете, обслуживая клиента, у него, возможно, и не случился бы момент озарения. Творческое программное обеспечение может сделать такие случайные сопоставления куда более распространенными. «Перепоручите случайные открытия алгоритму»,  – подытоживает Бонабо.



Что у нас на ужин? Ловили ли вы себя на мысли о том, что готовите по одним и тем же проверенным рецептам из одних и тех же ингредиентов? Здесь вам поможет приложение Chef Watson. Оно создает новые рецепты с помощью мозга суперкомпьютера Watson от IBM. Ключом к успеху Chef Watson является способность суперкомпьютера поглощать большие объемы информации и связывать ее между собой. Он уже доказал свою мощь, победив в викторине Jeopardy! и помогая врачам диагностировать рак в Мемориальной больнице Слоуна-Кеттеринга в Нью-Йорке. Теперь алгоритм нацелен на нечто более сложное – он использует свой творческий потенциал для создания рецептов, которые люди действительно захотят попробовать. IBM объединилась с американским кулинарным сайтом Bon Appetit для сбора достаточного объема данных. В базе данных сайта насчитывалось свыше 9000 рецептов, размеченных по ингредиентам, типам блюд и способам приготовления (например, тайская или каджунская кухня). В базе данных Watson создает статистическую корреляцию между ингредиентами, способами и

этапами приготовления, а затем использует эту информацию для определения сочетаемости ингредиентов и требований к каждому типу блюд. «Именно поэтому он знает, что для буррито, бургеров и супа нужны разные ингредиенты, – говорит Стив Абрамс из IBM. – Он понимает, что для буррито всегда нужна какая-то "обертка", а супу требуется жидкость. Вот почему у вас нет жидкого буррито». Работа с приложением начинается с того, что повар указывает желаемый ингредиент для блюда, а затем задает количество экспериментальных вариантов. По задумке разработчиков, Chef Watson станет еще умнее и начнет собирать данные из других источников. Для точного определения пропорций ингредиентов он уже штудирует статьи Википедии о мировых кухнях, а также просматривает факты о питании из базы данных Министерства сельского хозяйства США. Chef Watson иногда некорректно сочетает ингредиенты случайным и необъяснимым образом. Однако при создании креативных рецептов из чистых данных отмечаются и другие ошибки. Один тестировщик заметил, что алгоритм, похоже, путается в размерах порций. Другой пользователь обнаружил, что в каком-то рецепте требовалось ровно 554 ягоды можжевельника, а где-то еще предлагалось «очистить от кожи и костей» тофу.

Подтверждение гипотез: программа для решения математических задач Чистая математика – это еще одно человеческое начинание, подверженное перепадам вдохновения. Программы уже опровергают теоремы, которые люди изо всех сил пытаются доказать. Но смогут ли компьютеры примерить на себя более творческую роль? Если да, то компьютеры будущего переведут математику в области, слишком сложные для нашего восприятия.

В 2012 году Синъити Мотидзуки, уважаемый математик из Киотского университета в Японии, опубликовал на своем сайте более 500 страниц, полностью заполненных вычислениями. Это было кульминацией многолетней работы. Интеруниверсальная теория Тейхмюллера описывала ранее неисследованные математические области и позволяла доказать давний парадокс об истинной природе чисел, известный как АВС-гипотеза. Коллегиматематики оценили результат, но предупредили, что для его проверки потребуются колоссальные усилия. Месяцы работы не приносили плодотворных результатов. Потребовалось целых четыре года, прежде чем кто-то смог разобраться в гипотезе. Спросите у математика о доказательстве утверждения – скорее всего, вы услышите, что оно должно быть абсолютным, то есть исчерпывающей последовательностью логических шагов, ведущих от установленной отправной точки к неоспоримому выводу. Но это еще не все. Вы не можете просто опубликовать то, во что верите, и спокойно двигаться дальше. Вам нужно убедить других в том, что вы не допустили ни одной ошибки. И действительно революционное доказательство может быть сопряжено с весьма неприятным опытом. Оказывается, лишь немногие математики готовы отложить в сторону собственную работу и посвятить месяцы или даже годы

изучению доказательства Мотидзуки. И поскольку область математики стремительно разделяется на подобласти и подобласти внутри подобластей, проблема становится еще серьезнее. Некоторые ученые полагают, что математика достигла своих пределов. Реальные открытия могут оказаться слишком сложными для проверки, поэтому многие математики переключаются на более разрешимые и, возможно, менее значимые проблемы. Что же с этим делать? Для некоторых ученых решение кроется в использовании цифровых помощников. Многие математики уже работают с компьютерами, которые помогают с проверкой доказательств и освобождают время для более творческой работы. Но это может означать изменение и самой математики. Более того, однажды уже сами компьютеры смогут совершить настоящий прорыв в науке. Сможем ли мы идти с ними в ногу? А если нет, то чем это обернется для математики?

Четыре краски Первое серьезное компьютерное доказательство было опубликовано 40 лет назад и сразу спровоцировало скандал. Это было решение теоремы о четырех красках – головоломки, датируемой серединой XIX  века. Теорема утверждает, что во всех картах можно использовать только четыре цвета (краски) для того, чтобы ни одна из смежных областей не была выкрашена в одинаковый цвет. Можете сами пробовать сколько угодно раз, и вы убедитесь в верности теоремы (см. рис.  5.2). Но для доказательства сначала нужно исключить саму возможность существования фантастической карты, противоречащей теореме.

В 1976 году Кеннет Аппель и Вольфганг Хакен поступили именно так. Они показали, что можно сузить проблему до 1936 наборов карт, для которых может потребоваться пять цветов. Затем каждый из этих потенциальных контрпримеров проверялся компьютером. Ученые обнаружили, что все карты действительно можно раскрасить всего четырьмя цветами. Вроде бы, работа сделана. Но математики весьма неохотно приняли такие доказательства. А если в код закралась ошибка? Математики не доверяли программам, но никто не хотел вручную перепроверять тысячу примеров. В чем-то они были правы. Проверка программы, тестирующей математическую гипотезу, может оказаться сложнее, чем доказательство той же гипотезы традиционным способом. А ошибка в коде способна сделать все результаты совершенно ненадежными.



Рис. 5.2. Вы можете раскрасить любую карту с использованием четырех цветов, при этом цвета в смежных областях не будут повторяться. Попробуйте сами на «карте» выше, которая была создана в 1970-х годах писателем и популяризатором математики Мартином Гарднером





Хитрость заключается в том, чтобы проверять одни программы с помощью других. Программные системы доказательства теорем помогут математикам проверить правильность каждого этапа

расчетов. Данный процесс является интерактивным. Вы вводите команды в систему, а система их проверяет. Очень похоже на орфокорректор (проверку правописания). А что если в системе проверки возникнет ошибка? Такое всегда возможно, но подобные программы, как правило, достаточно малы и легко проверяются вручную. Более того, многократное выполнение кода показывает вам, что система работает правильно.

Скучные подробности И все же использование систем доказательства теорем означает изменение принципа работы. Всякий раз, когда математики прописывают доказательства, они опускают множество скучных подробностей. Например, нет смысла каждый раз прикладывать основы расчетов. Но такие сокращения не подойдут для компьютеров, ведь для работы с доказательством они должны учитывать каждый логический и даже самый очевидный шаг, например, почему 2 + 2 = 4. Перевод «человеческих» доказательств на язык компьютеров все еще остается активной областью исследований. Одно доказательство может занять годы. Первые достижения проявились в 2005 году, когда команда Жоржа Гонтье из Microsoft Research в Кембридже, Великобритания, обновила доказательство теоремы о четырех красках, сделав каждую ее часть читабельной для компьютера. Все предыдущие версии, начиная с работы Аппеля и Хакена в 1976 году, базировались на математической области под названием «теория графов», которая основывается на нашем пространственном восприятии. Человек может с легкостью расположить области на карте, чего не скажешь о компьютерах. Поэтому исследователям пришлось в корне переработать всю концепцию.

Гонтье обнаружил, что часть доказательства, издавна считавшаяся правильной ввиду своей очевидности, на самом деле не была доказана вообще, поскольку считалось, что это доказательство не стоит затраченных усилий. Оно, конечно, оказалось правильным, но этот случай наглядно продемонстрировал все плюсы дополнительной точности. «Вы должны сводить все решения к алгебре, и для этого требуется большая точность, – говорит он. – Но в результате эта точность гарантированно окупится». Решение теоремы о четырех красках стало лишь началом. «Теорема о четырех красках мало используется в остальных областях математики,  – продолжает Гонтье.  – Для нас она была просто заковыристой задачей». Поэтому он обратился к теореме Фейта – Томпсона – крупному фундаментальному доказательству в теории групп 1960-х годов. По прошествии многих лет доказательство теоремы было перестроено и переписано, и в конечном итоге его опубликовали в двух книгах. Гонтье надеялся, что формализация теоремы позволит ему продемонстрировать способности компьютера к восприятию более «мясистого» доказательства, которое затрагивало сразу несколько областей математики. Это был идеальный пример.

Непринятые доказательства Это был успех: в процессе работы исследователи смогли обнаружить несколько мелких ошибок, которые были допущены в книгах. Ошибки быстро исправили. Тем не менее они так и остались визуальным напоминанием того, что не заметил ни один математикчеловек. Как сказал Гонтье, многие люди приняли это к сведению. «Я получал письма, в которых люди говорили, что мы написали прекрасную программу». В обоих случаях результат не вызывал сомнений. Гонтье брал общепринятые математические догматы и переводил их на язык компьютеров. Прочим ученым для

подтверждения собственных доказательств приходилось самолично переписывать свою работу на понятном для компьютера языке. В 1998 году Томас Хейлс из Питтсбургского университета, штат Пенсильвания, оказался в том же положении, что и Мотидзуки. Он только что опубликовал 300-страничное доказательство гипотезы Кеплера – 400-летней проблемы о поиске наиболее эффективных способов упаковки набора шаров. Как и в теореме о четырех красках, здесь было возможно несколько тысяч вариантов (способов укладки шаров). Хейлс со своим учеником Сэмюелем Фергюсоном проверил все варианты на компьютере. Он представил полученный ими результат в журнале Annals of Mathematics. Пять лет спустя рецензенты журнала заявили о том, что на 99  % уверены в правильности доказательства. «Рецензенты-математики, как правило, не стремятся проверять компьютерный код. Они не считают это частью своей работы», – рассказывает Хейлс. Затем в 2003 году убедившийся в своей правоте ученый взялся за переработку доказательства, чтобы затем проверить его с помощью системы автоматического доказательства теорем. По сути он начал заново. Ему потребовалось более десяти лет для завершения проекта. Исследования Гонтье и Хейлса показали, что компьютеры помогают добиться результатов в важнейших областях математики. «Лет десять назад объемные математические теоремы, которые мы сейчас доказываем, казались несбыточной мечтой», – рассказывает Хейлс. Но, несмотря на все новшества в виде системы доказательства теорем, этот процесс остается весьма трудоемким. Большинство математиков не тратят на него время. Именно поэтому многие ученые стали работать в обратном направлении. Вместо того, чтобы упростить систему доказательства теорем в работе, Владимир Воеводский из Института перспективных исследований в Принстоне, штат Нью-Джерси, предпочитает переделать саму математику в удобную для компьютера форму. С этой целью он взялся за пересмотр всех теоретических основ математики.

Соответствие типу Это весьма глубокая тема. В настоящее время математика определяется с точки зрения теории множеств, то есть изучает наборы объектов. Например, число ноль определяется как пустое множество, набор без объектов. Единица – это множество, содержащее одно пустое множество. Таким образом можно представить бесконечное количество чисел. Большинство математиков редко волнуются о наборах чисел. Они воспринимают как должное тот факт, что могут понять друг друга, не вдаваясь в лишние подробности. Но эта схема не подходит для компьютеров, и тут возникает новая проблема. Существует несколько способов определения конкретных математических объектов в терминах множеств. Для нас эти способы не важны, но если два компьютерных доказательства используют разные определения для одного и того же, то такие доказательства окажутся несовместимыми. «Мы не сможем сравнить результаты, поскольку они основаны на разных вещах,  – объясняет Воеводский.  – Основополагающие принципы математики плохо работают в случаях, если вы хотите уложить все в предельно точную форму». Альтернативный подход Воеводского заменяет множества типами. Это более строгий способ определения математических объектов, при котором каждому понятию присуще только одно определение. Доказательства, построенные с использованием типов, могут формировать сами типы, что невозможно для множеств. Данная схема позволяет математикам формулировать идеи в самой системе проверки теорем, а не переводить их на компьютерный язык позже. В 2013 году Воеводский с коллегами опубликовал книгу, которая объясняла принципы, лежащие в основе новой фундаментальной базы. В книге все было представлено наоборот: сначала приводились результаты из системы проверки

теорем, а затем данные переводились в понятную для человека форму. По мнению Гонтье, «обратный способ» работы меняет образ мышления математиков. Он также помогает наладить более тесное сотрудничество между большими группами математиков, ведь им больше не придется постоянно проверять работы друг друга. Результатом станет популяризация идеи о том, что системы доказательства теорем весьма полезны для практических математиков.



Рис.  5.3. Высоко абстрактная и высоко сложная математика остается за пределами человеческих возможностей. Некоторые ученые считают, что компьютеры смогли бы открыть для нас эту новую область





И все это – только начало. Упрощение математики для компьютеров может открыть для нас совершенно новые области. По мнению Воеводского, работающего над переопределением фундаментальных основ математики, эта наука разделяется на четыре квадранта (см. рис.  5.3). Прикладная математика (например, моделирование воздушного потока над крылом) включает в себя высокую сложность, но низкую абстракцию. Чистая математика (та самая, нарисованная на бумаге и далекая от нашей повседневной жизни) предполагает низкую сложность, но высокую абстракцию. А

математика школьного уровня не является ни сложной, ни абстрактной. Но что же находится в четвертом квадранте?

Позабытый –  В наши дни крайне трудно перейти на высокий уровень сложности и абстракции, потому как этот уровень просто не укладывается у нас в головах,  – рассказывает Воеводский.  – Для высокой сложности и абстракции нужны способности, которых у нас нет. Вполне возможно, что работа с компьютерами откроет людям доступ к этой четвертой математической области. Мы бы смогли доказывать более крупные, смелые и абстрактные проблемы, возводя наши возможности в математике до небывалых высот. Может получиться и так, что о нас и вовсе позабудут. В 2014 году Алексей Лисица и Борис Конев из Ливерпульского университета, Великобритания, опубликовали компьютерное доказательство, объем которого составил целых 13 гигабайт, что примерно сопоставимо с размером Википедии. Каждая строка доказательства вполне читаема. Однако для того, чтобы просмотреть все результаты, потребуется прожить несколько длинных человеческих жизней. С тех пор команда ученых оптимизировала свой код и сократила доказательство до 800 мегабайт. Это значимое улучшение. Однако изучить работу все еще невозможно. Для людей картина выглядит немного иначе. Даже если вы решите посвятить свою жизнь чтению какой-то научной работы, то это будет сравнимо с изучением фотографии по пикселям. В результате вы так и не сможете увидеть всю картину целиком. «Вы не сможете понять идею, стоящую за исследованием», – признается Лисица. Несмотря на больший масштаб, эта ситуация ничем не отличается от первого доказательства теоремы четырех красок, когда математики все еще сомневались в корректности всестороннего

компьютерного поиска. «Мы до сих пор не знаем, почему результат получился верным,  – рассказывает Лисица.  – Возможно, он ограничен пределами человеческого понимания, поскольку объекты работы действительно огромны». Дорон Цейльбергер из Ратгерского университета в Ньюарке, штат Нью-Джерси, уверен, что настанет время, когда математики-люди не смогут привнести в отрасль ничего полезного. «Все следующее столетие компьютеры будут нуждаться в людях для обучения, – говорит он, – а затем продолжать заниматься этим, но уже в форме интеллектуального спорта. Их машины будут играть друг с другом, как люди играют в шахматы, несмотря на то, что люди во многом уступают машинам». Цейльбергер – это слишком радикальный пример. Вот уже десять лет он указывает свой компьютер по имени Shalosh B. Ekhad (Шалош Б.  Экхад) в качестве соавтора своих работ, а также считает, что людям пора отложить в сторону бумагу и ручку и заняться обучением своих машин. «Самое оптимальное использование времени математика – это передача знаний, – рассказывает он. – Научите компьютеры нужным приемам и позвольте им самим выполнять работу».

Духовная дисциплина Большинство математиков все же не в восторге от идеи о машинах, способных собирать доказательства за границами человеческого восприятия. «Мысль о том, что когда-то компьютеры заменят математиков, совершенно неуместна»,  – комментирует Гонтье. Кроме того, компьютерные математики рискуют утонуть в потоке непрочитанных статей. В настоящее время научные результаты не всегда получают заслуженное признание. Эта проблема особенно актуальна для математики. В 2014 году в онлайн-хранилище arXiv.org каждый месяц выкладывалось свыше 2000 работ по

математике – больше, чем по любой другой дисциплине. И этот показатель растет. Многие работы так и остаются незамеченными, поскольку тонут в потоке новых трудов. Одним из способов решения данной проблемы станет создание программы, которая будет читать все опубликованные материалы и передавать людям важную информацию. Гонтье уверен, что этого недостаточно. «Математика – это не столько поиск доказательств, сколько поиск концепций», – говорит он. По словам Воеводского, сама природа математики находится под пристальным вниманием. А если люди не могут понять доказательства, то это уже не математика. «В будущем математика может стать скорее духовной дисциплиной, нежели прикладным искусством. Одной из важнейших функций математики является развитие человеческого разума». Но для Синъити Мотидзуки уже слишком поздно. Его работа настолько передовая, настолько далекая от основной математики, что проверить ее с помощью компьютера будет куда сложнее, чем изобрести основное доказательство теоремы. «Я даже не знаю, получится ли официально подтвердить его достижение»,  – признается Хейлс. Пока что главными судьями остаются люди – пусть даже и не всегда доверяющие себе.

6. Машины, которые создают ИИ-мир искусства и рассказов

Машины делают свои первые шаги в мире искусства. Они учатся самостоятельно рассказывать истории, сочинять музыку и рисовать картины. Если подобное делает человек, мы называем такую деятельность творчеством. Но будет ли нам комфортно говорить то же самое о машине?

Боты-сценаристы: ИИ-рассказчики Что если есть обезьяна, которая боится бананов? А вдруг человек однажды проснется и станет собакой, которая умеет пользоваться телефоном? Или же где-то появился дом без дверей? What-if Machine (машина «Что, если») наделена активным воображением, почти как мы с вами – мы любим что-то придумывать. Мы рассказываем истории для развлечения, для обмена опытом или понимания чеголибо. Как сказал автор Филип Пуллман: «После питания, пристанища и живого общения, истории – это то, что нам нужно больше всего в жизни».

Однако скоро мы будем не единственными, кто живет историями. What-if Machine, созданная командой Терезы Ллано из Голдсмитского колледжа Лондонского университета, учится фантазировать. В результате могут появиться машины, способные продемонстрировать самый человекоподобный ИИ из существующих. «Мы создаем не искусственных людей, а компьютеры, которые смогли бы лучше понять людей и взаимодействовать с ними, – говорит Тони Вил из Университетского колледжа Дублина (Ирландия), который также участвует в проекте What-if Machine. – Мы любим истории, поэтому хотим наделить этой способностью и наши компьютеры». Для достижения этой цели необходимо будет научить компьютеры видеть мир таким же, каким видим его мы. И это станет гигантским скачком в области машинного интеллекта. Неудивительно, что многие видят в этом одну из самых сложных задач в искусственном интеллекте. Но мы движемся к своей цели. Такое достижение должно окупиться не только хорошими историями, но и новыми взглядами на мироздание. Повествование – это всегда непросто. Мы должны представлять себе, что вещи вокруг нас – не такие, какие есть на самом деле. Что

есть персонажи и мотивы, и их можно развить. А еще есть сюжетная идея, способная связать все это воедино. И, наконец, хорошая история должна находиться где-то между незамысловатостью и абсолютной неправдоподобностью. «Процесс создания историй возвращает нас к важнейшим проблемам компьютерных наук»,  – считает Майкл Кук из Университета Фалмута (Великобритания). Сюда можно отнести все, начиная от выбора лучшего персонажа и интересного взгляда на происходящее и заканчивая основной структурой отдельных предложений и естественностью языка. Первые работы по искусственному генерированию историй появились в 1970-х годах, их центральной проблемой была причинно-следственная связь при создании сюжета. Одной из первых значимых программ была Tale-Spin, разработанная в 1977 году Джеймсом Миханом в Калифорнийском университете в Ирвине. Программа придумывала истории про животных в стиле басен Эзопа. Пользователь-человек задавал каждому персонажу свою цель и библиотеку планов для достижения этой цели. При правильном сочетании целей и планов поведение персонажей формировало целый сюжет.

Мотивация персонажа Но такие системы были написаны довольно плохо. Их основное улучшение наступило с добавлением приоритетных авторских целей, которые направляли действия персонажей на пути к желаемому результату. Теперь вместо того, чтобы действовать поодиночке, персонажей можно было обучить согласованности общих действий для достижения конечной цели – жить долго и счастливо… или нет, в зависимости от задумки автора. Но излишняя согласованность приводит к появлению бессмысленных и нереалистичных историй, из-за чего создается

впечатление, будто бы персонажей собрали вместе только для достижения цели автора. Марк Ридл из Технологического института Джорджии, чья работа по искусственному интеллекту-рассказчику была поддержана такими разноплановыми организациями, как Disney и Управление перспективных исследовательских проектов Министерства обороны США (DARPA), пытается решить проблему согласованности, заставляя системы ИИ наделять персонажей мотивацией и избегать иллюзии коллективного сговора.

Срочные новости: боты получают важную информацию 17 марта 2014 года в 6:28 утра газета Los Angeles Times опубликовала статью о землетрясении, которое потрясло Калифорнию три минуты назад. Статья была информативной, но написанной в простом стиле: «По данным Геологической службы США, в понедельник утром в 5 милях от Вествуда, штат Калифорния, произошло землетрясение силой 4,7 балла. Подземные толчки отмечались в 6:25 утра по тихоокеанскому времени на глубине в 5 миль». Статья вышла с указанием имени автора – Кена Швенке, журналиста и программиста газеты. Однако благодарить за статью стоит компьютер Швенке, который написал эту историю без участия человека. И мало кто из читателей заметил разницу. Ранее в этом месяце Кристер Клерволл из Карлстадского университета в Швеции попросил 46 своих студентов прочесть один из двух обзоров футбольного матча в NFL, а затем оценить качество и убедительность прочитанного материала. Студенты не знали о том, что один из обзоров был подготовлен журналистом Los Angeles Times, а другой писался программой. Почти половина из 27 опрошенных, прочитавших «компьютерную» версию статьи, была уверена в том, что материал писался человеком.

Возрастает популярность молниеносных и основанных на фактах журналистских обзоров, написанных компьютером, ведь новые истории с прямым изложением фактов довольно легко создать автоматически. Творческие работы – это совсем другое дело. Можно рассказать целую историю, используя человеческие ассоциации на повседневные объекты. Возьмем, к примеру, трагедию Хемингуэя из нескольких слов: «Продаются детские ботиночки. Неношеные». Написание такой прозы выходит за рамки новостных сообщений и требует глубокого познания мира.

Еще одной проблемой ранних систем оказалось использование знаний, запрограммированных вручную. Такие знания ограничивали масштаб так называемого «воображения» системы. Именно в этой области началось стремительное развитие новой волны рассказчиков. Например, одна из систем Ридла под названием Scheherazade учится, задавая вопросы. Когда ИИ приходит к выводу о том, что не знает, как поступить (например, как заставить двух персонажей встретиться в ресторане), она публикует вопрос в Интернете. Люди с краудсорсинговых платформ по типу Amazon Mechanical Turk снабжают систему письменными примерами того, как все может происходить при различных сценариях (допустим, первое свидание или ограбление банка). Из этих примеров система узнает о новых ситуациях, которые затем вплетаются в ход сюжета.

Сюжетные повороты Конечно же, хорошая история – это куда больше, чем подробное описание событий. Ощущение радости часто порождается неожиданной подачей чего-то обыденного. Понимание того, какими свойствами обладают объекты или какое культурное значение они несут, имеет решающее значение.

Это позволяет рассказчику становиться более изобретательным, креативным и способным удивлять. «Как нам научить ИИ тому, что чайник можно использовать в качестве оружия, хотя такой сценарий маловероятен?» – спрашивает Кук. Даже если бы компьютер смог продемонстрировать глубокое понимание существующих систем и значений, он бы все еще испытывал трудности с таким явлением, как фантазия. Одна из хитростей, к которым прибегала What-if Machine, заключалась в том, чтобы, например, зеркально отображать уже известную информацию о мире. Обезьяны любят бананы. А что, если бы они наоборот боялись бананов? В домах есть двери. А что, если бы их не было? Для определения оригинальности своей работы ИИ сравнивает написанное произведение с уже существующими. «Допустим, вы придумали идею: медведь, который также является и предметом мебели. И вы хотите узнать, насколько нова эта революционная идея о гибриде медведя и стула», – объясняет Кук. Поэтому вы проверяете все известные вам типы медведей и стульев и ищите совпадения. Но суждения ИИ о новизне сводятся к оценке той базы данных, из которой он черпает знания. «ИИ может придумать новое интересное животное, – говорит Кук. – Птица, которая не умеет летать!» Если все примеры птиц, о которых он знает, могут летать, то такая идея будет иметь высокий рейтинг по шкале оригинальности. Но стоит только добавить в базу данных пингвинов, как идея перестанет быть чем-то новым. Опять же, в обучении могут помочь люди. Но воображение – это куда больше, чем стулья-медведи и нелетающие птицы. По мнению Ридла, многое из того, что делает историю интересной, сводится к тому, насколько неожиданными окажутся происходящие события. История об ограблении банка, в которой все идет как по шаблону, вряд ли кого-то удивит. Теоретики нарратологии (научного направления, изучающего повествование) часто говорят о том, что история достойна повествования, только если она разрывает

устоявшиеся шаблоны. И дело здесь не только в нарушении устоявшихся догм. Некоторые разрывы шаблонов весьма тривиальны, другие же – абсолютно бессмысленны. Машины не всегда знают, в каком случае нарушение правил окажется полезным, а когда оно принесет вред. Перед тем, как рассуждать о нетипичных вещах, ИИ стоит разобраться с типичностью. Один из способов выбраться из этой ловушки заключается в обучении компьютеров метафорам. «Метафора – это когнитивный рычаг, который позволяет людям приумножать знания и проецировать их из одной области на другую»,  – говорит Вил. Например, выражение «жизнь – это игра» расширяет наше понимание «жизни». Чтобы наделить компьютеры такими «рычагами», Вил разработал Metaphor Magnet – программу, которая обучается на общих метафорах из кэшированных текстов Google. Затем с помощью тезауруса программа расшифровывает понятия и находит для них новые определения.

Три вымышленные фабрики Вы приготовились? Новейшие системы создания историй учатся придумывать рассказы, изучая устройство человеческого мира. Некоторые из них опрашивают краудсорсинговые платформы о различных событиях, например первых свиданиях или ограблениях банков. Другие же (к примеру, ConceptNet) разрабатывают собственные онлайн-базы данных с нужными понятиями. Таким образом, они сначала расширяют свои знания об общих объектах и событиях, а затем превращают их в вымышленные истории. Существует несколько искусственных систем-рассказчиков.

Scheherazade Scheherazade, разработанная Марком Ридлом из Технологического института Джорджии в Атланте, может рассказать истории о любом мире, про который узнает из Интернета.

Система активно опрашивает краудсорсинговые платформы (Amazon Mechanical Turk и др.) о примерах действий, которые могли бы произойти при различных сценариях (например, при ограблении бланка). Вот отрывок ответа от одного краудвокера: Джон открыл дверь банка. Джон вошел в открытую дверь банка. Джон огляделся вокруг банка. Салли, кассир банка, заметила Джона. Джон подошел к Салли. Салли улыбнулась Джону. Джон поздоровался с Салли. Джон сказал Салли, что у него есть пистолет. Scheherazade связывает воедино множество последовательностей действий. Так она понимает, насколько возможны данные действия и в какой последовательности они должны происходить. Затем программа добавляет фрагменты с действиями в нужный раздел оригинального сюжета. Вот произведение, основанное на сценарии ограбления банка: Джон сделал еще один глубокий вздох, размышляя о правильности задуманного, и затем вошел в банк. Джон занял место за последним человеком в очереди и ждал. Когда человек перед ним решил свой вопрос и настала очередь Джона, он медленно подошел к Салли. Кассир сказала ему: «Здравствуйте, меня зовут Салли. Чем я могу помочь?» Когда Джон приблизился к кассе, Салли испугалась, потому что он выглядел подозрительно. Джон вытащил пистолет, который прятал в кармане пиджака. С суровым взглядом Джон направил пистолет на Салли. Салли сильно испугалась и закричала, опасаясь за свою жизнь. Грубым, резким голосом Джон потребовал деньги. Он бросил пустую сумку на стойку. Джон наблюдал, как Салли перекладывала деньги в сумку, а затем, когда сумка была заполнена, Джон выхватил ее у Салли. Салли чувствовала, как по ее лицу текли слезы, когда она разразилась

безутешными рыданиями. Джон быстро вышел из банка и сел в машину, бросив сумку с деньгами на пассажирское сидение. Джон хлопнул дверью грузовика. Под визг шин он выехал с парковки и уехал в неизвестном направлении. Вот еще одна история, созданная таким же образом. В этот раз она посвящена свиданию в кино: Джон подъезжал к дому Салли. В предвкушении их первого свидания у Джона потели ладони и быстро билось сердце. Салли в красивом белом платье, развевавшемся на ветру, осторожно села в машину Джона. Джон и Салли поехали в кинотеатр. Джон и Салли припарковали машину на парковке. Чтобы чувствовать себя немного увереннее, Джон заранее купил билеты в кино. Перед входом в кинозал стоял бледный человек. Джон показал билеты, и пара вошла в зал. Салли захотела пить, поэтому Джон поспешил купить напитки перед началом сеанса. Джон и Салли нашли два хороших места на последних рядах. Джон сел и поднял подлокотник, чтобы они с Салли могли прижаться друг к другу. На протяжении всего фильма Джон не отрывал глаз от Салли и нервно потягивал свой напиток. Наконец, набравшись смелости, Джон протянул руку, чтобы обнять Салли. С облегчением и восторгом он почувствовал, как Салли придвигается к нему поближе. Салли встала, чтобы воспользоваться уборной во время сеанса, и застенчиво улыбнулась Джону перед выходом. Джон и Салли держались за руки на протяжении всего фильма, хотя руки Джона постоянно потели. Джон и Салли медленно поднялись со своих мест. Все еще держась за руки, Джон вернулся с Салли обратно к машине, проходя через лабиринт людей, которые спешили выйти из кинотеатра. На выходе из темного кинотеатра яркое солнце на мгновение ослепило Джона. Джон придержал дверь для Салли. Джон отпустил руку Салли и открыл для нее пассажирскую дверь машины. Но вместо того, чтобы войти в машину, она сделала шаг вперед, обняла Джона и поцеловала его. Джон отвез Салли домой.



Flux Capacitor Команда Тони Вила из Университетского колледжа в Дублине (Ирландия) разработала систему, создающую сюжетные линии персонажей, которые можно использовать для основы истории. Система пользуется генератором метафор для комбинирования различных понятий при «распределении по ролям». Например, противоположные понятия «милый» и «страшный» распределяются по подходящим ролям («милые клоуны» и «страшные колдуны»). Опираясь на базовые представления о мире, система объединяет эти роли в правдоподобную сюжетную линию персонажа. Вот несколько примеров: •  Что заставляет милых клоунов уходить из цирков, изучать некромантию и становиться страшными колдунами? •  Что побуждает недовольных протестующих отказываться от демонстраций протестов в пользу веры и превращаться в покорных фанатиков? • Почему авторитетные журналисты уходят из новостных изданий, начинают проявлять интерес к подглядываниям и превращаются в озабоченных вуайеристов? •  Что толкает недалеких актеров отказаться от актерской деятельности, начинать собирать толпы и превращаться в набожных проповедников? •  Что заставляет потрепанных попрошаек вновь обретать дома, поступать в медицинскую школу и становиться аккуратными хирургами? У Flux Capacitor есть собственный профиль в Twitter (@MetaphorMagnet), в котором публикуется вся информация об активности системы. Создатели Flux Capacitor надеются, что обратная связь от подписчиков-людей позволит существенно улучшить систему.

What-if Machine

Тереза Ллано из Голдсмитского колледжа Лондонского университета разрабатывает систему, которая может придумывать истории стиле Кафки и Disney. What-if Machine создает художественные сценарии с помощью зеркального отображения свойств, которыми мы обычно наделяем объекты и понятия. Человеческие персонажи •  Что, если бы существовал маленький человечек, который бы забыл, как косить газон? •  Что, если бы существовал маленький юрист, который бы научился не спорить? • Что, если бы существовал младенец, который бы умел ходить? •  Что, если бы существовал маленький человек, который бы научился уменьшаться? Животные персонажи •  Что, если бы существовала маленькая обезьянка, которая боялась бы бананов? • Что, если бы существовала маленькая собачка, которая боялась бы любви? • Что, если бы существовала маленькая собачка, которая боялась бы костей? • Что, если бы существовала маленькая змея, которая боялась бы живой мыши? •  Что, если бы существовал маленький крот, который не смог бы найти нору? •  Что, если бы существовала маленькая пчела, которая не смогла бы отыскать мед? • Что, если бы существовала маленькая овечка, которая не смогла бы найти поле? Персонажи-объекты • Что, если бы существовало маленькое колесо, которое потеряло бы тормоз?

•  Что, если бы существовала маленькая книга, которая потеряла бы свой рассказ? • Что, если бы существовал маленький столик, который потерял бы свой стул? •  Что, если бы существовал маленький дом, который потерял бы свою дверь? • Что, если бы существовала маленькая бомба, которая забыла бы, как ранить людей? • Что, если бы существовала небольшая звезда, которая не могла бы взорваться? •  Что, если бы существовала небольшая ручка, которая не могла бы писать? • Что, если бы существовала небольшая мелодия, которая не могла бы развлекать? •  Что, если бы существовал небольшой пистолет, который не мог бы убить? Персонажи в стиле Кафки •  Что, если бы существовала женщина, которая однажды проснулась бы на ферме и стала говорящей козой? • Что, если бы существовал человек, который проснулся в поле и стал собакой, умеющей звонить по телефону? Сюрреализм • Что, если бы в поле был слуга с лицом репы? • Что, если бы во дворе был пастух с лицом болгарского перца? Сценарии •  Что, если бы все поэты перестали писать стихи забавы ради и ушли бы в запой? •  Что, если бы существовала собака, которая обожала бегать, но больше не могла этого делать, и поэтому решила прокатиться на лошади? • Что, если бы существовал робот, который смог бы понять любовь с помощью теорем?

• Что, если бы существовала танцор, который танцевал бы только на руках? •  Что, если бы существовала лифт, в котором отсутствовали бы тросы, и этот лифт мог бы подняться высоко – до самого неба?

От учителя к наркодилеру Metaphor Magnet способен вплетать сюжетные линии персонажей в рассказ благодаря анализу связанных и противоположных понятий. Возьмем сериал «Во все тяжкие», в котором главный герой из отца и учителя превращается в наркоторговца и криминального авторитета. Яркий контраст между портретом персонажа в начале и конце истории обусловливает захватывающее повествование. Создание схожих сюжетных линий Metaphor Magnet начинает с определения пар противоположных понятий (например, «милый» и «страшный»). Затем он ищет роли, к которым можно применить данные понятия. Допустим, «милые клоуны» и «страшные колдуны». Опираясь на небольшие знания о нашем мире, система связывает противоположные понятия в органичный переход, который ложится в основу сюжета: что заставляет милых клоунов уходить из цирков, изучать некромантию и становиться страшными колдунами? –  История о генеральном директоре, который становится председателем правления компании, весьма правдоподобна. Многие генеральные директора близки к тому, чтобы стать председателями,  – рассказывает Вил.  – Но где же напряжение? История о заносчивом генеральном директоре, который теряет все и превращается в бомжа? Вот теперь сюжет становится куда интереснее. Попытка разобраться с тем, что именно создает хорошую сюжетную линию, отчасти зависит от понимания интриги. Команда Ридла создала модель, которая связывает интригу с вероятностью

того, что план по спасению персонажа от неприятностей сработает. Это позволяет системе Ридла оценить уровень интриги в сюжете. Части головоломки собираются воедино. Так что же нам делать с подобными системами? Одной из областей практического применения может стать генерирование таких историй, которые окажутся слишком велики для создания людьми. Например, когда Facebook приобрела Oculus Rift (компанию, занимающуюся виртуальной реальностью), то заявила, что хочет создать первую ролевую онлайн-игру с миллиардом пользователей. Виртуальные миры должны быть «заселены» интересными персонажами с интересными поступками. Если игровой мир слишком разрастется, то люди-дизайнеры не смогут создавать персонажей, сюжетные линии и испытания вручную. Будущие системы создания историй обещают стать не просто фабриками по генерированию вымышленных сюжетов. Машины, которые рассказывают истории, смогут понять, как устроен наш мир. Наши компьютеры способны удивлять, развлекать нас, провоцировать дебаты, указывать на тенденции к изменениям, находить парадоксы и противоречия, а также побуждать нас к более активной интеллектуальной вовлеченности. Ридл верит в то, что ИИ, способный овладеть основами повествования, окажется полезным для фактического анализа. Журналистским расследованиям пригодится способность ИИ создавать предположения о происходящем в реальном мире и подбирать факты для подтверждения или опровержения данных гипотез. Например, сюжеты о том, что могло бы произойти с пропавшим самолетом, облегчили бы поисковые операции.

Интервью. За гранью теста Тьюринга Марк Ридл – директор лаборатории интеллектуальных развлекательных систем в Школе интерактивного вычисления Технологического университета штата Джорджия в Атланте. Он занимается изучением искусственного интеллекта, виртуальных миров и процесса повествования. Ридл уверен, что тест Тьюринга

слишком прост. По словам ученого, именно творчество должно стать эталоном человеческого интеллекта. Поэтому он доработал тест Тьюринга до новой формы – «Тест Лавлейс 2.0». – Из каких элементов состоит тест Тьюринга? –  Тест Тьюринга представлял собой мысленный эксперимент. Считалось, что если кто-то не сможет отличить человека от компьютера при общении в текстовом чате, то участник, «обхитривший» эксперта, должен признаваться разумным. Когда в 1950 году Алан Тьюринг писал свою оригинальную статью, он не предполагал фактическое проведение теста. Тьюринг пытался убедить людей в том, что компьютеры могут обладать человеческими способностями. Однако Тьюрингу было трудно определить, что же такое разумность. – Почему вы считаете, что тест нуждается в обновлении? –  К настоящему времени его успешно прошли как минимум три чат-бота, которых исследователи ИИ почти единогласно признали далеко не самыми разумными. – Верно ли, что эту проблему пыталось решить тестирование 2001 года под названием «Тест Лавлейс»? –  Да. Этот тест был назван в честь выдающегося математика XIX  века Ады Лавлейс. Он сводился к следующему: если вы хотите увидеть в ИИ человеческие способности, то не стоит забывать о том, что люди создают что-то новое, и этот процесс требует от нас разумности. Исследователи, разработавшие данный тест, предположили, что можно попросить ИИ что-то создать (допустим, рассказ или стихотворение). И успешным прохождением теста считались лишь те случаи, когда программист ИИ не сможет объяснить, как именно алгоритм придумал свой ответ. Проблема в том, что я не уверен в эффективности теста, поскольку крайне маловероятна ситуация, при которой программист не сможет понять логики созданного им алгоритма. – Чем отличается ваш «Тест Лавлейс 2.0»?

– В моем тесте эксперт-человек сидит за компьютером. Эксперты знают, что имеют дело с ИИ, и поэтому дают системе задание из двух слагаемых. Во-первых, они просят создать творческий объект: рассказ, поэму или картину. А во-вторых, к задаче добавляются условия. Например: «Расскажи историю о кошке, которая становится героем»; или «Нарисуй человека, который держит пингвина». – Должны ли объекты быть эстетичными? –  Не обязательно. Я не хотел связывать разумность с умением: обычный человек может сыграть в Pictionary, но не сможет создать шедевр Пикассо. Поэтому мы не должны требовать суперинтеллекта от наших ИИ. – Что происходит после того, как ИИ представляет свой объект? –  Если эксперт удовлетворен результатом, он придумывает еще одну, более сложную задачу. И так продолжает до тех пор, пока ИИ либо не завалит тест, либо эксперт не убедится, что система продемонстрировала достаточный уровень разумности. Несколько этапов проверки означают, что вы увидите полученные оценки, а не только вердикт «прошел» / «не прошел». И мы можем сохранять задания экспертов для тестирования других ИИ. –  То есть ваш тест – это, скорее, инструмент сравнения искусственных систем? – Именно так. Я бы не хотел давать точных прогнозов о том, что потребуется от ИИ для достижения человекоподобного интеллекта. Нам опасно говорить о таких вещах.

Виртуальные ценители искусства переопределяют креативность Неужели создавать шедевры умеют только люди? Как-то в лофте с видом на крыши одного из оживленных кварталов парижской богемы Саймон Колтон осторожно разворачивал одну гигантскую картину за другой. Первая картина под названием The Dancing Salesman Problem («Проблема танцующего коммивояжера») изображала красочные человеческие фигуры, танцующие на черном фоне. Танцоры рисовались длинными плавными мазками, поэтому казались полными движения: их силуэты принимали красивые позы, а яркие цвета оживляли сцену. Работа вряд ли бы понравилась всем до единого, однако вы, возможно, задержались бы около нее в галерее.

Но ни одна из этих картин не была работой обычного художника. Их автором не был и Колтон, ученый в области информатики, который в то время учился в Имперском колледже Лондона, а затем перешел в Университет Фалмута. Данные картины были созданы программой под названием Painting Fool, которая могла искать творческое вдохновение и, возможно, обладала элементарным воображением. Пусть Колтон и разработал саму программу, однако произведения были ее собственной заслугой – программа не создавала свои картины на основе уже существующих. Painting Fool – это один из тех компьютеров, которые, по словам создателей подобных систем, обладают творческими талантами. Классическая музыка, созданная композитором-ИИ, привела в восторг зрителей и даже смогла заставить их поверить в то, что за партитурой стоял человек. Картины, написанные роботом, были проданы за тысячи долларов и демонстрировались в престижных галереях. Колтон разработал программу, способную создавать искусство, недостижимое для

программиста. «Эта программа пугает многих,  – рассказывает Джерант Уиггинс, исследователь компьютерного творчества в Голдсмитском колледже Лондонского университета.  – Они обеспокоены тем, что такая программа отнимает нечто особенное – то самое, что делает человека человеком». Несмотря на то, что вороны, обезьяны и некоторые другие животные демонстрируют признаки, которые можно классифицировать как ограниченное творчество, мы остаемся единственным видом, который регулярно совершает сложные творческие манипуляции. Если мы сможем свести процесс творчества к компьютерному коду, то что останется людям? «Этот вопрос лежит в основе человечества», – говорит Уиггинс. Все мы в какой-то степени знакомы с компьютеризированным искусством. Программы для создания или управления искусством весьма распространены. Однако они являются лишь инструментами для человека-художника. Возникает вопрос о том, где заканчивается работа человека и начинается творчество компьютера. Рассмотрим одного из старейших художников-машин – Aaron, робота, чьи картины выставлялись в Современной галерее Тейт в Лондоне и Музее современного искусства в Сан-Франциско. Aaron успешно проходит творческое подобие теста Тьюринга. Его работы настолько хороши, что выставляются наряду с лучшими произведениям человечества и покупаются за приличные деньги. Aaron может взять кисть своей роботизированной рукой и начать самостоятельно рисовать на холсте. Примечательно то, но он не способен выходить за рамки жестко регулируемых правил, прописанных программистом, художником и основателем машинного изобразительного искусства Гарольдом Коэном. Критики отмечают, что Aaron – это нечто больше, чем просто инструмент для реализации персональных творческих идей Коэна.

Разные штрихи Колтон хочет наделить Painting Fool максимальной автономией. Пусть программа и не наносит реальную краску на холст, зато она имитирует множество стилей в цифровом виде – от коллажа до прорисовки мазков. Painting Fool нужен лишь минимальный толчок для сюжета, после система сама генерирует идеи, подбирая исходные материалы онлайн. «Я даже не знакомлю систему с понятием о человеке или теме, – говорит Колтон. – Aaron проснется утром и прочтет заголовки газет». Программа выполняет собственный поиск по сайтам и социальным сетям (таким как Twitter и Flickr). Планировалось, что данный подход позволит создавать искусство, понятное аудитории, поскольку будет опираться на человеческий опыт, проистекающий из наших действий, чувств и споров в сети. В 2009 году Колтон и аспирантка Анна Кржечковская попросили Painting Fool подготовить собственную интерпретацию войны в Афганистане и взять за основу новостные материалы. В результате было произведено детальное сопоставление афганских жителей, взрывов и воинских захоронений. «Это произведение задело меня за живое и показало потенциал программы к добавлению остроты и интенциональности в картины», – рассказывает Колтон. Painting Fool может создавать картины с нуля. Одна из его оригинальных работ, ставшая частью серии, которую Колтон окрестил Four Seasons («Четыре сезона»), изображает нечеткие панно простых пейзажей. Однако трудно судить о качестве произведения, не прибегая к двойным стандартам при оценке человеческого и программного искусства. Колтон призывает не забывать о том, что Painting Fool писал свои пейзажи, не обращаясь к фотографиям. «Если бы ребенок нарисовал новую сцену, придуманную в голове, то вы бы сказали, что он

обладает неким уровнем воображения, пусть и небольшим,  – утверждает он. – То же самое распространяется и на машины». Ошибки в программе могут привести к неожиданным результатам. Несколько работ в творчестве Painting Fool появились благодаря счастливой случайности. Например, несколько рисунков стула получились черно-белыми из-за сбоя в программе. Это придает картине жуткий и призрачный вид. Людей-художников, таких как Эльсуорт Келли, хвалят за ограниченность цветовой палитры. Так почему же компьютеры должны отличаться?

Новые игры, придуманные случайно Коллега Саймона Колтона – Майкл Кук из Университета Фалмута – разработал ИИ под названием Angelina, который может придумывать собственные видеоигры. Кук видит в играх идеальную среду для изучения компьютерного творчества, потому как они опираются сразу на несколько дисциплин, начиная от звукового и визуального дизайна и заканчивая выбором правил. Все это позволяет игрокам получить увлекательный опыт. Как и Колтон, Кук заметил, что ошибки в программе могут привести к инновационному развитию системы. При создании игр Angelina пользуется различными техниками, включая чтение новостей в Интернете и добавление актуальных тем в игры. Этим же приемом пользуется Painting Fool для создания картин. Кроме того, Angelina может брать за основу код уже существующих игр и перерабатывать их функционал в нечто новое. По словам Кука, способность алгоритма находить и подбирать элементы дизайна стала крупным достижением. Ранее система продумывала механику игры, сочетая между собой заданные правила. «Она по-своему комбинировала правила, как кусочки пазла, но я был не очень доволен результатом, – вспоминает Кук. – Ведь, в конце концов, именно мне требовалось давать алгоритму те самые кусочки пазла».

Angelina сама находит и тестирует различные игровые возможности: изменение гравитации, прыжки в высоту и телепортацию. Кук начал работу над Angelina, дав программе уровень игры, который невозможно было пройти. Например, со стеной между входом и выходом. Angelina поэтапно изменяла дизайн игры, пользуясь идеями из существующих игр. Она вносила некоторые корректировки в дизайн, тестировала их и добавляла новые изменения до тех пор, пока уровень игры не стал проходимым. «Такой механизм работы куда ближе к тому, чем человек занимается в процессе программирования», – продолжает Кук. Еще более хитрым ходом стало то, что Angelina нашла ошибки в коде Кука и воспользовалась ими для изобретения новых уровней игры. В одном примере код игры по ошибке позволял игроку одновременно телепортироваться внутри стены и прыгать. Angelina придумала технику перепрыгивая через стену, при которой игрок мог вертикально забраться на стену путем многократной телепортации и прыжков. «Вот почему я был уверен в необходимости создания системы, которая будет независимой от меня», – объясняет Кук. В другом примере Angelina нашла код, позволяющий сделать игрока более «прыгучим», о чем Кук даже не знал. «Я встречал лишь несколько игр, в которых использовались подобные прыжки,  – вспоминает Кук. – У вас нет гарантий того, что профессиональные разработчики вообще подумают об этих нюансах». Кроме того, Angelina оказалась первым не-человеком, принявшем участие в игровом «джеме» – неофициальном соревновании, в котором люди собираются на несколько дней и создают новую игру. Чтобы сэкономить время на создании игры, в робота загрузили правила, которые использовались в качестве запрограммированного шаблона работы. Но все остальное, включая эстетические решения, были достижением самого ИИ. Придуманная игра проходила среди

кроваво-красных стен и сопровождалась тревожной музыкой. Подобная атмосфера производила впечатление на игроков. Игроки описывали игру как «жуткую» и «с тревожной атмосферой». Однако ни один игрок не знал, что игра была придумана ИИ. Это был положительный результат с точки зрения приобретения опыта.

Противоречивый композитор Некоторые исследователи, включая самого Колтона, не считают правильным сравнение машинного творчества с человеческим, поскольку у нас были тысячелетия для развития собственных навыков. Другие же очарованы перспективой того, что компьютер способен создать нечто тонкое, эмоциональное и оригинальное, под стать лучшим художникам. Пока что лишь одна программа сумела к этому приблизиться. Однажды в 1981 году Дэвид Коуп страдал от отсутствия вдохновения. Ему поручили написать оперу, но он никак не мог придумать ничего достойного. Если бы только компьютер смог понять стиль композитора, подумал он тогда, и написал бы этот новый материал за него. Эта идея стала отправной точкой для развития одного из самых противоречивых направлений творческих программ. Коуп придумал программу под названием Experiments in Musical Intelligence, или EMI. Он загружал в систему партитуры и новые материалы в собственном стиле. EMI создавал не только композиции в стиле Коупа, но и те, которые походили на произведения всеми уважаемых классических композиторов, включая Баха и Моцарта. Для неподготовленного уха такие мелодии практически не отличимы от любой классической музыки – временами звучной и эмоциональной. И зрители, услышавшие эти произведения, были тронуты до глубины души. EMI смогла запутать экспертов в

классической музыке, которые сочли, будто они слышат подлинного Баха. Если бы существовал тест Тьюринга для компьютерного творчества, то EMI успешно бы его прошла. Однако впечатлились не все. Некоторые критики, например Уиггинс, называли работу Коупа лженаукой, заявив, что его объяснение принципов работы программы – это «пускание пыли в глаза», не дающее другим воспроизвести подобные результаты. Дуглас Хофштадтер из Индианского университета в Блумингтоне утверждает, что Коуп только делает первые шаги в области творчества и пользуется поверхностными элементами работ артистов для создания реплик, зависимых от творческих порывов своих авторов. Тем не менее для других людей способность EMI подражать Баху или Шопену оказалась значимой. Если можно так легко разложить на код стиль самых неповторимых композиторов в мире, то получается, что лучшие артисты-люди куда больше похожи на машины, чем нам кажется. И действительно, когда зрители узнавали правду о EMI, то часто приходили в ярость. Один ценитель музыки якобы заявил, что Коуп «уничтожил музыку» и попытался даже ударить исследователя. Из-за столь противоречивых мнений Коуп решил, что EMI изжила себя, и в 2004 году разрушил ключевые базы данных. Почему же многие любят музыку, но начинают испытывать к ней отвращение, узнав об ее искусственном происхождении? Исследование Дэвида Моффата, ученого в области информатики из Каледонского университета Глазго в Великобритании, дает подсказку. Он попросил опытных музыкантов и неспециалистов в данной области оценить творческую ценность шести композиций. Участникам не говорили заранее, кем создавались композиции – машинами или людьми. Испытуемым предлагалось угадать авторство произведения, а затем оценить, насколько им понравилась та или иная композиция. Результат был вполне ожидаем: если люди думали, что произведение создавалось

компьютером, то такая композиция нравилась им меньше, чем та, которую придумал человек. Данная тенденция отмечалась и среди экспертов, несмотря на ожидаемую от них объективность при анализе качества музыки. Откуда взялось это предубеждение? У психолога Пола Блума из Йельского университета есть предложение: он считает, что определенная доля наслаждения, которое мы получаем от искусства, исходит от нашего восприятия творческого процесса создания произведений. По словам Блума, это наделяет произведение так называемой «неотразимой сущностью». Данная идея объясняет, почему обесценивается картина, признанная подделкой. Причем такая картина могла нам нравиться раньше, когда мы думали, что смотрим на оригинал. И действительно, эксперименты психолога Джастина Крюгера из Нью-Йоркского университета доказали, что чем больше времени и сил, по мнению человека, уходит на создание предмета искусства, тем большее удовольствие человек получит от произведения. Колтон считает, что люди, любующиеся искусством, вступают в некий диалог с художником. Мы спрашиваем себя: о чем мог думать художник? Или размышляем над тем, что он пытался нам сказать. Если же искусство создается компьютерами, то такие догадки обрубаются на корню, ведь у нас не остается простора для раздумий. Но вполне возможно, что с возрастанием сложности программ мы получим возможность заново изучить все глубины искусства. Именно поэтому Колтон просит Painting Fool искать вдохновение в социальных сетях. Ученый надеется, что таким образом программа сможет подбирать значимые для нас темы.

Бессознательное творчество Дуглас Хофштадтер считает, что чем сложнее становятся машины, тем легче мы принимаем созданное ими творчество, особенно если

такие системы будут больше взаимодействовать с физическим миром. Если роботы будут сталкиваться с какими-то препятствиями, обладать собственными целями, «переживать» взлеты и падения, то этого может оказаться достаточно. «Тогда программы будут видеться нам жалкими, смехотворными и иногда даже героическими,  – говорит он. – Не думаю, что у людей возникнет дискомфорт, если такие "существа" будут писать эссе, сочинять музыку или рисовать картины». Но отсутствие самосознания у современных машин является чуть ли не главным раздражающим фактором в компьютерном творчестве. Как вы можете творить, не обладая сознанием? Удивительный факт: в противоположность устоявшемуся мнению сознание может оказаться не столь важным фактором для творчества. Наш мозг выполняет творческую работу, даже когда мы об этом не думаем, объясняет Арне Дитрих, нейробиолог из Американского университета Бейрута в Ливане. Просто вспомните момент, когда позабытое решение проблемы вдруг всплывало в вашей памяти. Существует несколько типов творчества: осознанное и бессознательное. Творческие способности проявляются во сне или когда мы осознанно пытаемся что-то создать. В любом случае Дитрих считает, что творческий мозг способен работать как компьютерная программа. Нейробиологи полагают, что творчество сводится к открытиям, а не к чему-то мистическому. Это механический процесс в мозге, который генерирует возможные решения, а затем систематически их удаляет. Дитрих уверен, что наша склонность к принижению компьютерного творчества происходит из-за укоренившегося дуализма человеческой культуры. «Мы недооцениваем компьютеры и переоцениваем себя», – добавляет он. Будучи нейробиологом, Дитрих работает с мозгом как с машиной и не разграничивает машинное и человеческое творчество. При таком рассмотрении сама идея об уникальности человеческого

мозга по части творческих способностей кажется весьма ограниченной. Но смогут ли другие принять данную идею? По словам Колтона, хитрость в том, чтобы перестать сравнивать компьютерных и человеческих художников. Если мы примем компьютерное творчество как данность и перестанем «очеловечивать» его, то компьютеры не только дадут нам новое понимание наших талантов, но и оригинально проявят себя в областях, которые мы и представить себе не можем. Они создают совершенно новую форму искусства, способную удивлять нас, бросать нам вызов и радовать глаз.

Муза в машине Лишится ли чего-то важного человек, если передаст ключи от творчества машинам? Майкл Кук считает, что будущее, в котором ИИ станет создавать произведения искусства, не лишит нас ничего – наоборот, ученый уверен, что ИИ сыграет важную роль в демократизации творчества и снижении барьеров для людей. Если ИИ может написать рассказ или нарисовать картину, то он также может и критиковать произведения. Получается, что ИИ сможет выступать в роли помощника для людей, которые хотят создать чтото свое, но не знают, с чего начать, либо испытывают некие трудности в процессе. В качестве примера компьютеров-помощников Кук называет средства проверки правописания и инструменты в фоторедакторах. «В настоящее время уровень вовлеченности ИИ просто ужасен,  – говорит он. – Мы хотим создать программу, которая может быть и наставником, и музой, и зрителем одновременно».

Интервью. Как научить компьютер творить?

Саймон Колтон – профессор технологии цифровых игр в Университете Фалмута, Великобритания. Он работает над программой, которая делает то, что у людей называется «творчеством». Программа уже может проявлять способности к творчеству и делать математические открытия, но для этого необходимо научить ее нужному набору навыков, считает он. –  Вы разработали программу под названием HR, которая делает собственные открытия. Оказалась ли она успешной? –  HR придумала классификацию математических структур, известных как латинские квадраты. Эта структура, как и судоку, представляет собой сетку, в каждой строке и столбце которой содержится каждый символ. HR произвела несколько начальных алгебраических классификаций данных структур. Кроме того, HR самостоятельно выдвинула гипотезу Гольдбаха о том, что каждое четное целое число больше двух можно выразить через сумму двух простых чисел. –  Заинтересованы ли математики в использовании данной системы? –  Мы заметили, что математики любят программы, способные выполнять за них скучную рутинную работу: массивные вычисления и очевидные доказательства, в истинности которых они точно уверены. Но такие творческие вещи, как разработка концепций или определение гипотез, ученые любят делать самостоятельно. Однажды я отправил Герберту Саймону, нобелевскому лауреату в области экономики и специалисту в области компьютерных наук, электронное письмо о гипотезе, доказанной HR. Позже он сказал, что не дочитал письмо до конца, поскольку сам хотел решить эту головоломку. А его жена рассказала, что ей даже пришлось напоминать ученому о необходимости поспать. – Как вы учите программу делать открытия? –  Вы даете программе данные, о которых хотите что-то узнать. При машинном обучении вы знаете, что ищете, но не знаете, как оно

выглядит. Здесь же вместо поиска известных неопределенностей программа пытается обнаружить неизвестные неопределенности. Мы хотим, чтобы программа удивила нас, сделала то, чего мы от нее не ждем. Поэтому мы учим машину тому, как выполнять общие, а не конкретные действия. Это противоречит большей части того, что мы делаем в информатике, в которой все сводится к работе программы только над тем, что вы от нее хотите. Людям потребуется много времени, чтобы во всем разобраться. – Могут ли компьютеры совершать важные научные открытия? – Мне кажется, что мы увидим, как компьютеры делают настоящие открытия только тогда, когда программы смогут сами себя программировать. Последняя версия HR специально разрабатывалась для написания собственного кода. Но это трудная задача. Оказалось, что написание кода программы – это одна из самых сложных задач, которые выполняют люди. В конце концов, есть и математические концепции, которые невозможно разложить в код, особенно если в них фигурируют бесконечности. –  Еще одна ваша программа, Painting Fool, рисует портреты. Как люди реагируют на ее творчество? –  Математики признают творческие возможности компьютера только в том случае, если он будет снова и снова демонстрировать отличные результаты. Но в мире искусства люди ждут другого подтверждения. Когда вы покупаете картину, то делаете это по многим причинам, одна из которых заключается в том, что картина хорошо сочетается с вашим диваном. Если вам нравится картина, то вы чествуете саму природу человека, заключенную в ней. Как мы можем заставить программу соответствовать нужным критериям? Я не хочу проводить тесты Тьюринга, где мы пытаемся ввести людей в заблуждение о том, кто или что делает. Мы хотим, чтобы люди симпатизировали действиям программы. Компьютеры не заменят людей в творческих областях, поскольку мы всегда платим за человечность: кровью, потом и слезами.

Художественное развитие ИИ 1973 Aaron создает абстрактные изображения, которые выставляются в музее современного искусства Сан-Франциско и Современной галерее Тейт в Лондоне. Novel Writer, первая автоматическая система генерации историй, создает истории убийств, происходящих на вечеринках по выходным. Они появляются через смоделированные действия определенного набора персонажей.

1977 Tale-Spin создает рассказы о лесных животных в духе басен Эзопа. Пользователь-человек наделяет персонажей целями и дает им наборы действий для достижения желаемого. Истории генерируются благодаря смоделированным взаимодействиям персонажей.

1981 Author – система, моделирующая авторское мышление, – первой вводит авторские цели в дополнение к целям персонажей. Таким образом, система способна создавать истории, например, со счастливым концом.

1983 Universes создает истории для эпизодов сериала со множеством персонажей и пересекающимися сюжетными линиями без концовок.

1987 Композитор и ученый Дэвид Коуп создает Experiments in Musical Intelligence, или EMI («Эмми»). Это программа, которая автоматически сочиняет музыку в стилях разных композиторов (Бетховен, Шопен и

Вивальди) и обучается на реакциях людей.

2004 Фредерик Фоль Леймари и Патрик Трессет из Голдсмитского колледжа Лондонского университета создают Aikon – робота, рисующего портреты в стиле Трессета и имитирующего его положение запястья, а также силу нажима на карандаш.

2006 Painting Fool рисует портреты в разных стилях, в зависимости от своего «настроения».

2010 ИИ под названием Angelina пытается создавать собственные видеоигры. EMI Дэвида Коупа эволюционирует в более позднюю систему под названием Emily Howell, которая выпускает свой дебютный альбом From Darkness, Light. Франсиско Вико и его коллеги из Малагского университета в Испании разрабатывают Ianus. Это компьютер, который пользуется эволюционной техникой под названием «меломика» (англ. melomics, сочетание слов genomics of music – геномика музыки) для создания музыки без вмешательства человека. В 2012 году сочинение Ianus исполняется на концерте, приуроченному к столетию Алана Тьюринга, и записывается Лондонским симфоническим оркестром.

2013 Scheherazade, разработанная группой Марка Ридла из Технологического института Джорджии в Атланте, умеет рассказывать истории из любой области, о которой она узнает в Интернете.

2014

Watson от IBM начинает создавать свои собственные рецепты. What-if Machine придумывает идеи для рассказов в стиле Кафки и Disney. Flux Capacitor создает основы историй путем объединения различных понятий через базовый генератор метафор. Ianus выпускает альбом поп-музыки под названием 0music.

7. Реальные риски ИИ Почему боязнь конца света преувеличена

Неумолимое развитие ИИ порождало волну общественного беспокойства. Несколько известных деятелей высказывали мнение о том, что ИИ представляет опасность для существования всего человечества. Но опасения о конце света из-за ИИ сильно преувеличены. Однако нельзя также говорить и о том, что никаких рисков не существует. Есть множество способов, благодаря которым ИИ сможет изменить наш мир к худшему.

Забудьте о Skynet: социальные эффекты ИИ Резонанс от гипотетического конца света, к которому ведет нас ИИ, не покидает заголовки новостей. Но в этой шумихе мы не видим того, что происходит у нас под носом. Пока одни люди со страхом предсказывают, что однажды интеллектуальные машины смогут обойтись без бесполезных людей, другие видят в них утопическое будущее, наполненное бесконечной праздностью.

Акцентирование внимания на столь маловероятных исходах отвлекает от вполне реальных социальных последствий, уже вызванных растущими темпами технологических изменений. В течение 100  000 лет мы полагались на тяжелый труд небольших групп охотников-собирателей. Немногим более 200 лет назад мы перешли к индустриальному обществу, в котором большая часть ручного труда была отдана машинам. А потом, всего одно поколение назад, мы совершили переход в цифровую эру. Сегодня большая часть того, что мы производим, – это информация, а не физические объекты; биты, а не атомы. Компьютеры превратились в незаменимые инструменты, а большая часть ручного труда сменилась вычислениями. Столь резкие изменения провоцируют нескончаемую паранойю. Но здесь необходимо проверить обоснованность волнений. В ближайшие годы такие бесценные качества человека, как творчество и изобретательность, вполне могут быть переданы ИИ. Но мы не должны чувствовать в этом угрозу – мы должны испытывать восторг от того, чего сможем достичь с помощью машин. Это все те же незаменимые цифровые инструменты, которые разнообразили и улучшили наши способы коммуникации и создания чего-либо. Нельзя сказать, что расцвет ИИ не дает нам поводов для беспокойств. И все же нас должна интересовать не сама технология, а то, как мы ее создаем и используем. ИИ уже наделяет своих

«владельцев» великой силой. Огромное количество значимых открытий делается корпорациями и другими коммерческими организациями. Но в чьих интересах? Здесь, равно как и везде, у нас уже есть все нужные ответы. ИИ не может лишить нас работы, чести, прав и достоинств человека. Это под силу лишь другим людям.

Потоки данных Для нормального функционирования интеллектуальные машины должны собирать данные (часто – личные данные). Этот простой факт превращает их в потенциальные приборы для слежения: они знают, где мы находимся, видят историю наших посещений и находят наши профили в социальных сетях. Но можем ли мы решить, кому следует давать доступ к личным данным, как использовать эти данные или удалить их навсегда? Если ответ «нет», то мы не контролируем этот процесс. Другая проблема – убеждение. Бизнес-модель многих компаний, занимающихся искусственным интеллектом, сводится к рекламе. То есть к тому, как заставить людей проходить по определенным ссылкам. Уже сейчас активно проводятся исследования по управлению действиями пользователей, и чем больше машины узнают о нас, тем эффективнее смогут побудить нас к определенным действиями. Предиктивные интерфейсы могут спровоцировать развитие зависимости уязвимых пользователей, активно поощряя их порциями самого интересного контента в сети. Это то, что следует тщательно изучить. ИИ прошел долгий путь от своих первых дней в академических лабораториях. Теперь он интегрируется во все аспекты нашей жизни. Довольно часто после развертывания ИИ мы перестаем замечать, что работаем с искусственным разумом. Но нам, пожалуй, не стоит поддаваться искушению и внедрять ИИ во все возможные области. По крайней мере, пока не будут продуманы культурные и правовые

нормы. Широкое распространение ИИ дает не только массу возможностей, но и сопряжено с потенциальными рисками. Это не угроза для нашего вида, а, скорее, возможное снижение нашей приватности и независимости.

В поисках работы Британский экономист Джон Мейнард Кейнс (1883–1946) всегда твердил, что роботы заберут у нас работу. В 1930 году он писал следующее: все сводится к тому, что «наши средства экономии труда опережают темпы, с которыми мы находим новые способы его применения». И это было неплохо. К 2030 году наша рабочая неделя сократится до 15 часов, а остальная часть времени будет тратиться на то, чтобы жить «мудро, достойно и хорошо».

Но этого еще не произошло. Наоборот, многие из нас стали работать больше, чем раньше. Страны с развитой экономикой, в которых большое количество работников физического труда заменяется автоматизацией, обычно не оставляют этих людей без работы, предоставляя им места в других сферах деятельности, например в рабочих профессиях. Возникает вопрос о том, может ли это продолжаться и теперь, когда ИИ нацелился на решение всевозможных задач, выходящих за рамки рутины и обыденности. Страх перед машинами, отнимающими у нас работу, уходит корнями как минимум к луддитам – группе британских ткачей, которые в 1811 году в ярости разгромили фабрики, поскольку ткацкие станки сделали рабочих бесполезными. Два столетия спустя многие из нас могли оказаться в том же положении. В 2013 году Карл Фрей и Майкл Осборн из Оксфордской программы Мартина о влиянии технологий будущего в Оксфордском университете рассмотрели 702 вида работ и оценили, насколько простыми они окажутся для автоматизации. Ученые выяснили, что на протяжении двух десятилетий машины выполняли около половины всех работ в США. В список вошли такие специальности, как телемаркетологи и библиотекари. Не особо отстающими стали и менее «чувствительные» отрасли: модели, повара и строители, которым

теперь угрожали цифровые аватары, повара-роботы и сборные конструкции, создаваемые роботами на фабриках. Наименее уязвимыми стали сфера охраны психического здоровья, учителя детей младшего возраста, священнослужители и хореографы. В целом наиболее устойчивой оказалась деятельность, требующая активного социального взаимодействия, оригинального мышления и творческих способностей, либо очень специфических сенсорномоторных функций. Яркие примеры – стоматологи и хирурги.

Какие профессии исчезнут следующими? Искусственный интеллект близок к тому, чтобы захватить множество профессиональных отраслей человеческой деятельности. Вот тройка лидеров, которые в скором времени могут перестать ассоциироваться с человеком. Таксисты. Uber, Google и известные автомобильные компании вкладывают деньги в машинное зрение и контролируют исследования. Пока что процесс автоматизации сдерживается правовыми и этическими проблемами. Но как только начнется это развитие, водители-люди, скорее всего, станут пережитком прошлого. Транскрибаторы. Ежедневно больницы по всему миру передают медиафайлы профессиональным транскрибаторам (расшифровщикам), которые разбираются в медицинском жаргоне. Они расшифровывают записи и присылают их в виде текста. К транскрибации прибегают и другие отрасли. Медленно, но верно набирает обороты машинная транскрибация. Во многом это происходит благодаря данным о человеческом голосе, которые собираются в кол-центрах. Финансовые аналитики. Kensho, базирующаяся в Кембридже, штат Массачусетс, привлекла ИИ для мгновенного ответа на финансовые вопросы, которые заняли бы у аналитиков-людей много часов или даже дней. Изучив финансовые базы данных, стартап способен ответить на такие вопросы, как: «Какие акции окажутся самыми

выгодными и перспективными через пару дней после банкротства банка?» Журналисты NBC уже могут воспользоваться Kensho, чтобы получить ответы на вопросы о главных новостях, заменив тем самым исследователей-людей на робота.

Автоматизированная рабочая сила ИИ уже взял на себя целый ряд работ, начиная от организации ночного технического обслуживания в системе метро Гонконга и заканчивая помощью в заковыристых юридических исследованиях, как это делает, например, ROSS – ИИ-помощник, созданный на базе компьютера Watson от IBM. Похоже, что в ближайшие несколько лет ИИ вызовет как минимум кратковременную турбулентность на рынке труда. В период с 2012 по 2015 год британская телекоммуникационная компания O2 заменила 150 сотрудников одной программой. По словам Уэйна Баттерфилда, который в настоящее время работает над улучшением работы O2, большая часть обслуживания клиентов O2 полностью автоматизирована. Замена сим-карт, перенос мобильных номеров, переход от предоплаченного на контрактный тариф, разблокировка телефона от О2 – все это теперь автоматизировано. Люди привыкли вручную переносить данные между нужными системам, например копируя телефонные номера из одной базы данных в другую. Пользователь все еще должен позвонить в компанию и поговорить с оператором, однако теперь всю фактическую работу выполняет ИИ. ИИ от О2 обучался во время работы. Он смотрел, как люди выполняли простые и повторяющиеся задачи с базами данных, а затем пытался повторить самостоятельно. – Эти системы делают то же самое, что и человек, – рассказывает Джейсон Кингдон, председатель Blue Prism – стартапа, который

разработал искусственных работников O2. – Если понаблюдать за работой ИИ, то она покажется немного сумбурной. Все, что вы увидите,  – как ИИ что-то печатает. Открываются экраны, ИИ выделяет данные и вставляет их. Barclays, один из крупнейших банков в мире, также пользуется ИИ для работы в бэк-офисе. Компания привлекла Blue Prism к обработке потока клиентских претензий после того, как британские регуляторы потребовали от банка выплат размером в миллиарды фунтов за нарушения при заключении договоров по страхованию. Было бы слишком затратно перекладывать всю работу с массовыми претензиями на человека. При наличии программных агентов для обработки простейших претензий Barclays мог бы нанять меньше людей. Кингдон не боится признаваться в цели своей работы: «Эти программы готовятся стать заменой человеку. У нас появится автоматизированная личность, которая научится выполнять работу так же, как и коллеги-люди». Еще одной проблемой, связанной с новыми видами автоматизации по типу Blue Prism и ROSS, стало то, что они выполняют спектр работ, стоящих на первой ступеньке корпоративной лестницы. Это может повлечь за собой усугубление неравенства, поскольку роботизированные системы сократят возможности для новых соискателей.

Коллеги-роботы Некоторые люди думают, что страхи о распространении безработицы сильно преувеличены. Недавний рабочий отчет для экономически развитых стран мира ОЭСР высказывает предположение о том, что ИИ не сможет выполнять все рабочие задачи. Особенно это касается отраслей, подразумевающих под собой частое взаимодействие с людьми. Полностью

автоматизированными окажутся лишь 9 % рабочих мест. Кроме того, опыт прошлого показывает, что вокруг автоматизации создаются новые рабочие места. С кейнсианской точки зрения, технический прогресс продолжит улучшать наши жизни. Самые успешные инновации – это те, которые дополняют, а не узурпируют нас. Взять хотя бы «коботов», представленных в 2016 году на ежегодной выставке автоматизации процессов в Чикаго. Эти роботы создавались для совместной работы с людьми, повышения безопасности и упрощения человеческой деятельности, а не замещения ее. Коботы помогали нам в решении проблем, позволяли безгранично общаться, создавать произведения искусства, музыку и литературные шедевры. Этой точки зрения придерживается большинство экспертов. В 2014 году исследовательский центр Пью в США спросил 1896 экспертов о том, верят ли они, что к 2025 году технология уничтожит больше рабочих мест, чем создаст. Оптимисты оказались в большинстве. Нельзя сказать, что ИИ приведет к экстремальной реорганизации всего сущего. Даже если ИИ изменит характер работы, а не заменит самих рабочих, влияние его на общество все равно окажется колоссальным. Гиг-экономика (сдельная экономика), впервые внедренная такими фирмами, как Uber, обеспечивает гибкость трудовых ресурсов и удобство для клиентов. Это делается благодаря переходу на алгоритмическое управление, которое, однако, ущемляет права и обязанности работников. К сожалению, ИИ может лишь усилить данную тенденцию. Это очень важно: наша работа является неотъемлемой частью нашей идентичности, и сохранение достоинства трудовой деятельности должно занимать центральное место в нашем обществе. Нам стоит стремиться к тому, чтобы использовать ИИ для повышения квалификации работников, а не превращать человеческую деятельность в скучную сдельную работу. Унижение человеческого достоинства работников – это плохое применение технологии.

Решение проблемы является скорее социально-политическим, нежели технологическим. ИИ может вызвать изменения в нашей экономической системе, взять хотя бы дискуссии о введении универсального базового дохода для всех. Но изменения должны ориентироваться на людей, а не руководствоваться искусственно управляемой эффективностью алгоритмов, которая обогащает немногих в ущерб большинству. В конечном счете, мы сами ответственны за собственную судьбу. Учитывая пользу трудовой деятельности для нашего здоровья и благополучия, мы захотим обезопасить работу, приносящую нам моральное удовлетворение и вознаграждение. Конечно же, неравноправие и нарушения неизбежны. Но они существовали на протяжении сотен лет.

Новинка на кадровом рынке в Кремниевой долине: помощник бота Не слишком ли много мы думаем о той работе, которую потеряем из-за ИИ, вместо новой, которую он создаст для нас? Личный цифровой помощник Facebook под названием M предлагает нам как минимум одну новую роль, которую некоторые из нас смогут примерить на себя в будущем. M – это цифровой помощник с поддержкой ИИ, встроенный в мессенджер Facebook. Он может забронировать номер в отеле или билет на самолет, порекомендовать ресторан и зарегистрировать столик, приобрести товары для доставки или отправить новости и напоминания. Так что же за высокотехнологический секретный ингредиент делает М настолько разноплановым? Это люди – или, на языке Facebook, тренеры ИИ. Попросите M порекомендовать местный ресторан с хорошей тайской лапшой, и тренер ИИ сначала оценит все предложенные варианты, а затем позволит М отправить их вам. Попросите зарезервировать столик на двоих, и, скорее всего, в ресторан будет звонить именно тренер ИИ. Все, что говорит М, наблюдается, проверяется и изменяется специально нанятым человеком. «Мы изобрели совершенно новый

вид работы», – говорит Ари Энтин, представитель Facebook. Facebook не единственная технологическая компания, которая нацелена на привлечение людей в роли скрытых помощников. Clara Labs, стартап из Сан-Франциско, создает виртуального помощника, которому можно отправлять электронные письма о назначении встреч в вашем календаре. Clara – это ИИ. Но когда вы отправляете ей электронное письмо, вам невольно приходится общаться с несколькими людьми, проверяющими ее работу. Компания Interactions, расположенная во Франклине, штат Массачусетс, является еще одной организацией, создающей «помощников по цифровому общению». Эти системы поддерживают горячие линии обслуживания клиентов в крупных корпорациях (например, американская страховая компания Humana и техасская энергоснабжающая компания TXU Energy). Interactions называет своих помощников-людей «аналитиками намерений». Когда автоматизированный помощник сталкивается с цепочкой непонятных для него слов, они отправляются аналитику намерений для интерпретации. Человек прослушивает информацию, подсказывает программе, что нужно сделать дальше, и разговор с клиентом возобновляется. Это простой способ подделать качественный ИИ. Но такие компании, как Facebook, Clara Labs и Interactions, не просто вовлечены в тщательно продуманные процессы – благодаря ним инженеры смогли по-новому понять, насколько ценными бывают люди. Автоматизированные горячие линии имеют плохую репутацию. Один онлайн-сервис GetHuman.com дает людям ценные советы и рекомендации, как получить нужный телефонный номер какой-то компании, по которому можно пообщаться с реальным человеком. Почему бы изначально не оставить работу голосовых операторов людям? Множество приложений-помощников в Кремниевой долине пошли по этому пути. Один из них, Magic, позволяет отправлять запросы команде операторов, которые затем их исполняют, будь то

доставка еды, бронирование или даже медицинская марихуана. Invisible Girlfriend из Сент-Луиса, штат Миссури, позволяет вам придумать собственную фальшивую девушку и переписываться с ней за ежемесячную плату. В данном случае «она», эта девушка, является толпой сотрудников-людей, которые по очереди придумывают кокетливые и сентиментальные ответы. Люди – весьма хлопотный и дорогой ресурс. Поэтому ИИ, поддерживаемый человеческими помощниками, способен сочетать в себе гибкость и креативность человеческого мозга с неутомимой скоростью и экономичностью автоматизации. Выгода для компаний очевидна. Но каково это – быть помощником бота? Вице-президент Interactions Фил Грей говорит, что офисы компании, может, и выглядят как кол-центры, но «слышатся» совершенно иначе. Несмолкаемый шум разговоров заменился безостановочным нажатием клавиш. «Некоторые проводят параллель с видеоиграми»,  – добавляет Джейн Прайс, еще один вице-президент компании. На сайте Glassdoor, где сотрудники могут оставлять анонимные отзывы о своей работе, комментарии об Interactions неоднозначны. Кто-то хвалит непринужденную атмосферу и гибкий график, добавляя, что им пришелся по душе быстрый темп работы. Другие же были обескуражены монотонностью выполняемых действий. «Иногда вам будет казаться, будто вы превращаетесь в зомби»,  – пишет бывший аналитик компании. Как бы вы ни называли этих храбрых новых работников – тренерами ИИ или аналитиками намерений – все они выполняют двойную работу. В данный момент они функционируют как резервная копия ИИ, заполняя пробелы там, где программа сталкивается с нерешаемой для нее проблемой. А еще тренер должен будет научить ИИ не повторять одни и те же ошибки. Каждый пример обучения добавляется в растущую библиотеку обучающих данных, которую алгоритмы машинного обучения смогут использовать для решения незнакомых задач в будущем.

Означает ли это, что в какой-то момент времени ИИ будет настолько хорошо обучен, что потребность в тренерах-людях отпадет? Алекс Лебрун, возглавляющий проект M в Facebook, говорит, что все не так просто. «Мы всегда будем нуждаться в тренерах,  – говорит он.  – Чем больше мы учимся, тем большее нужно изучить. Это нескончаемый процесс».

Офисные шпионы Лишение нас рабочих мест – не единственная проблема, связанная с ИИ. Компании все чаще пользуются технологиями для слежки за сотрудниками на рабочем месте, а ИИ замечает малейшие детали в поведении людей. Позвольте себе немного расслабиться или попытайтесь обхитрить систему, и алгоритм моментально сдаст вас начальству. Одной из фирм, предлагающих подобные услуги, является лондонский стартап StatusToday. Эта компания была включена в бизнес-инкубатор по кибербезопасности, которым управляет британское разведывательное управление GCHQ, предлагающее услуги технической экспертизы и защиты инвестиций. ИИплатформа StatusToday опирается на бесперебойный поток метаданных сотрудников, в который включается все, начиная от доступных вам файлов и заканчивая тем, как часто вы открываете эти файлы и когда вы прикладываете свою карточку-ключ на проходной. С помощью метаданных ИИ сначала составляет представление о работе компании, отделов и отдельных сотрудников, а затем в режиме реального времени выявляет аномалии в поведении людей. По задумке разработчиков подобная система способна обнаружить угрозу безопасности в случаях, если кто-то выйдет за пределы своих обычных моделей поведения. «Все, что нам нужно, – это отпечаток пальца пользователя. Если вдруг мы думаем, что отпечатки не

совпадают, то отправляем предупреждение»,  – говорит Мирча Думитреску, технический директор компании. Система заметит, если, например, сотрудник начинает копировать большое количество файлов, которые обычно даже не открывает. Эти файлы нужны для работы или работник пытается похитить конфиденциальную информацию? Кроме того, StatusToday предназначен для отслеживания действий сотрудников, которые могут привести к нарушению безопасности, например ответы на фишинговые письма или открытия вложений с вирусами. «Мы следим не за тем, заражен ваш компьютер вирусами или нет,  – продолжает Думитреску. – Мы наблюдаем за поведением человека». Но такие поиски нарушений безопасности означают наблюдение за всем. Некоторые компании уже хранят метаданные сотрудников для ретроспективного анализа в случаях, если что-то пойдет не так. Страховая компания Hiscox начала пользоваться платформой StatusToday совсем недавно и сразу обнаружила активность на счете у сотрудника, который ушел из компании несколькими месяцами ранее. Помимо отслеживания потенциальных нарушений кибербезопасности ИИ может анализировать производительность сотрудников. Думитреску приводит в пример спорный запрет Yahoo на работу сотрудников из дома, поскольку это якобы снижает скорость и качество работы всей команды. «Мы можем оценить применимость запрета относительно каждого сотрудника, – поясняет он.  – Мы можем решить, может ли данный сотрудник работать удаленно или нет, в зависимости от того, к каким данным у него имеется доступ».

Есть ли ваше фото в базе данных полиции? Согласно докладу 2016 года факультета права Университета Джорджтауна в Вашингтоне, округ Колумбия, если вы живете в США, то с вероятностью в 50 % вы уже присутствуете в полицейской базе данных для распознавания лиц. В документе говорится о том, что

около четверти всех полицейских управлений в США имеют доступ к технологии распознавания лиц. Использование полицией этой технологии само по себе не является проблемой. Было бы глупо не пользоваться ей в мире, где у каждого есть камера в кармане. Но сфера использования технологий распознавания лиц куда шире, чем дактилоскопическое опознание, – здесь повышается риск занесения в базу невиновных людей. «Это неизученная и, откровенно говоря, опасная территория»,  – заявил при публикации доклада Альваро Бедойя, который возглавлял исследование в Джорджтауне. С отпечатками пальцев довольно трудно работать. Брать оттиски известных преступников можно только в контролируемой среде полицейских участков, а поиск отпечатков пальцев занимает так много времени, что проводится только в характерных местах преступлений. Это уменьшает число людей, попавших в поле зрения расследования. Намного проще создать огромные базы данных уже идентифицированных фотографий. Из 117 миллионов лиц, присутствующих в наборах данных полиции, большинство изображений – это фотографии на водительские удостоверения и документы, удостоверяющие личность. При попытке раскрыть преступление «подобрать» лица так же просто, как направить камеру на улицу. Люди, посещающие акции протеста, церковь или просто проходящие мимо, могут запросто «засветиться» на камерах, даже не подозревая об этом. Некоторые программы для распознавания лиц продемонстрировали равные с людьми результаты в контролируемых тестах. Однако системы, имеющие дело с зернистыми изображениями камер видеонаблюдения, работают значительно хуже. Если программа начинает выдавать больше ложных совпадений, чем смогут проверить следователи-люди, то это затруднит борьбу с преступностью. Существует несколько правил по использованию полицией данной технологии и проведению оценки ее результатов. Без должного руководства офицеры полиции могут

переоценивать систему распознавания лиц и отдавать предпочтение в расследовании доказательствам, соответствующим ее результатам. Подобные системы могут проявлять предвзятость по отношению к темнокожим. Поскольку темнокожих людей арестовывают чаще, чем европеоидных, их фотографий в базе данных значительно больше. Это означает, что при распознавании лиц невинные темнокожие люди будут чаще попадать в подборку, чем невинные белые. Кроме того, исследования показали, что коммерческие приложения по распознаванию лиц анализируют лица черных мужчин, женщин и детей менее точно, чем белых. Выходит так, что программа мало того, что чаще указывает на чернокожих людей, так еще и на невиновных. Ни одна из четырех основных компаний, продающих технологии распознавания лиц (Cognitec, NEC, 3M Cogent и Morpho), не говорит открыто о том, как именно работают их программы или какие наборы данных используются для обучения. Даже ФБР об этом точно не известно. В 2016 году Управление государственной подотчетности правительства США (ГАО) опубликовало отчет о программе по распознаванию лиц, используемой в ФБР, заявив, что агентство не проверяло частоту возникновения ошибок. По словам представителей ГАО, ФБР смогло бы больше полагаться на систему, проведя более тщательное тестирование и зная, что она «предоставляет сведения, которые помогают, а не препятствуют уголовным расследованиям». Как и все криминалистические методы, распознавание лиц готово помочь в поимке преступников, которых полиция может упустить. Но для этого результаты программы должны быть прозрачными и надежными. В противном случае с такой же долей вероятности вы могли бы указать пальцем на любого человека в толпе.

Никто не главный Сегодня программы участвуют в принятии решений, меняющих жизни людей. Появились автоматизированные системы, которые помогают решить, кому дать кредит в банке, рабочее место, кого считать гражданином, а кто заслужил условно-досрочное освобождение. И все же в качестве примера можно рассмотреть ситуации, в которых ценообразующие алгоритмы дают сбои, и оценить возможные риски. Кто придет на помощь, если машины выйдут из-под контроля?

«Amazon совсем сломался» (Amazon is all kinds of broken). Если вы видели этот твит 12 декабря 2014 года и быстро среагировали, то возможно успели заключить несколько исключительных сделок. В течение одного часа Amazon продавал странный набор товаров: телефоны, видеоигры, карнавальные костюмы, матрасы, – по цене в один пенни. Неожиданное падение цен дорого обошлось продавцам. Товары с обычной стоимостью в 100 фунтов уходили с 99,99  %-ной скидкой. Сотни клиентов ухватились за эту возможность, делая оптовые закупки. Хоть Amazon и быстро отреагировал, отменив множество заказов, он все-таки не смог отыскать все заказы, которые корпоративная автоматизированная система уже отправила со складов. После запуска процесс было трудно остановить. Из-за неполадки в программе ряд индивидуальных трейдеров, работающих в Amazon Marketplace, потерял свои акции на десятки тысяч долларов. Некоторые столкнулись с банкротством. Автоматизированные процессы уже не просто инструменты в нашем арсенале – они сами принимают решения. Многие системы являются собственными сложными разработками, что выводит их за рамки общественного контроля. Так как нам убедиться в том, что они ведут честную игру?

На повестке дня стоит новая волна проверок алгоритмов, которая смогла бы пролить свет на скрытые процессы и выявить чрезмерную предвзятость или дискриминацию. Крайне трудно предсказать, как программа поведет себя с реальными данными и в реальных условиях. В 2016 году Microsoft запустила чат-бота Tay. Пару часов спустя алгоритм уже постил в Twitter расистские высказывания, из-за чего компания была вынуждена отключить бота. Масштаб влияния программы тоже зачастую неясен. Некоторые люди клянутся, что сами наблюдали скачки цен на одном сайте, после того как, например, посещали сайт конкурента. Другие же считают, что это не более чем современный городской миф. Такие дебаты лишний раз подчеркивают темную природу современных систем.

Убийственное повреждение Потенциальные последствия распространения алгоритмов могут оказаться разрушительными. Некоторые уверены, что скрытые алгоритмы сыграли свою роль в кризисе субстандартного ипотечного кредитования в 2008 году. В период с 2000 по 2007 год некоторые американские кредиторы (Countrywide Home Loans, DeepGreen и др.) использовали автоматизированные онлайн-приложения для раздачи ипотечных кредитов по беспрецедентной ставке. Проблема заключалась в том, что множество высокорискованных кредитов предоставлялось без человеческого надзора. От последствий кризиса больше всего пострадали американцы из социальных меньшинств. Автоматизированные процессы анализируют огромные объемы данных для выявления заемщиков с высоким уровнем риска (им начисляются более высокие процентные ставки) и отбирают их для продажи ипотечных услуг. «Многие из этих заемщиков оказались афро- и латиноамериканцами,  – рассказывает Сета Гангадхаран из Института открытых технологий –

информационно-аналитического центра государственной политики, базирующегося в Вашингтоне.  – Алгоритмы сыграли свою роль в этом процессе». Точная степень вины алгоритмов так и остается неясной. Но банки Wells Fargo и Bank of America с отделениями в разных городах, включая Балтимор, Чикаго, Лос-Анджелес и Филадельфию, поплатились сотнями миллионов долларов за претензии о том, что их субстандартное (высокорисковое) кредитование было предложено непропорционально большому количеству меньшинств. Сам по себе процесс принятия решений, которым крупные банки пользовались для отбора и продажи субстандартных кредитов, не был новым. Но охват и скорость решений, принимаемых самими алгоритмами, оказался в новинку. Автоматизированные системы все чаще заменяют человеческие суждения в процессе принятия важных решений. В 2012 году Государственный департамент США начал использовать алгоритм случайного выбора победителей в лотерее Green Card. Однако система была подвержена ошибкам: она выдавала визы только тем, кто подал заявку в первый день. Это обнаружил Джош Кролл, ученый из Принстонского университета, который занялся расследованием этого инцидента. Визы, выданные подобным образом, были отменены. Тем не менее перед нами еще одна красочная иллюстрация того, как скрытые алгоритмы оказывают влияние на судьбы людей.

Выдуманные граждане В схожем примере документы, опубликованные Эдвардом Сноуденом, показали, что Агентство национальной безопасности пользуется алгоритмами для определения гражданства США у отдельных людей. Согласно законодательству США, без ордера можно следить за коммуникациями только неграждан США. В

отсутствие информации о месте рождения человека или гражданстве его родителей алгоритм АНБ прибегал к оценке других критериев. Поддерживает ли этот человек контакт с иностранцами? Выходил ли в Интернет из другой страны? В зависимости от того, чем вы занимаетесь в сети, ваше гражданство может в одночасье измениться. «Сегодня вы – гражданин США, а завтра уже стали иностранцем,  – рассказывает Джон Чейни-Липполд из Мичиганского университета в Анн-Арбор. – Это категорическая оценка, которая основывается на интерпретации ваших данных, а не на информации из вашего паспорта или свидетельства о рождении». Ряд особо вопиющих случаев включает в себя предвзятость, прописанную непосредственно в коде и скрытую под личиной математической точности. Взять хотя бы приговор к тюремному заключению. Судьи и адвокаты в ряде штатов США могут воспользоваться онлайн-инструментом – приложением для автоматического вынесения приговора. Система подсчитывает расходы на содержание обвиняемого под стражей и сравнивает их с вероятностью повторного совершения преступления обвиняемым на основании предшествующей криминальной истории, а также поведенческих и демографических факторов. Но такие критерии, как адрес, доход и уровень образования, практически исключают возможность расовой непредвзятости. В 2016 году сайт ProPublica, занимающийся различными расследованиями, проанализировал одну программу из округа Бровард, штат Флорида. В ходе расследования было обнаружено, что за последние два года в качестве наиболее вероятных рецидивистов она в два раза чаще отмечала чернокожих людей. В большинстве приведенных примеров проблема заключалась не в самих алгоритмах, а в том, что они чрезмерно усиливают существующую неоднозначность данных. Что же нам с этим делать?

Повышенные стандарты Кристо Уилсон из Северо-Восточного университета в Бостоне считает, что Google, Facebook и прочие крупные технологические компании должны расцениваться как общественные услуги, которыми пользуется огромное количество людей. «Учитывая, что у них миллиарды глаз повсюду, они просто обязаны поддерживать себя на более высоком уровне», – говорит он. По мнению Уилсона, большей надежности автоматизированных систем можно достичь в том случае, если пользователи смогут точно контролировать способы персонализации результатов. Например, нужно исключить из критериев пол, уровень дохода или место проживания. «Таким образом мы сможем изучить, как именно работают данные системы», – уверен он. Другие эксперты призывают к созданию новой нормативноправовой базы, регулирующей алгоритмы,  – очень похожей на то, что у нас есть, например, в финансовой сфере. В докладе, опубликованном в 2014 году Белым домом, исполнительным органам рекомендовалось уделять больше внимания тому, что алгоритмы делают с собранными и проанализированными данными. Однако для обеспечения контролируемости необходимы независимые аудиторы, которые будут проверять алгоритмы и следить за последствиями их действий. «Мы не можем оставлять решение проблем на усмотрение правительств или промышленности», – говорит Гангадхаран. Но и независимые аудиторы сталкиваются с серьезными трудностями. Начнем с того, что условия пользования запрещают копаться в собственном (закрытом) программном обеспечении, из-за чего пропадают все возможности для анализа работы систем. В соответствии с американским законом о мошенничестве и злоупотреблениях с использованием компьютеров, такая «слежка» может и вовсе оказаться незаконной. Кроме того, несмотря на

существенную важность общественного контроля, информация о корпоративных алгоритмах должна быть защищена от хакеров и конкурентов.

Право знать В 2016 году Европейский парламент утвердил Общий регламент по защите данных (GDPR)  – новый свод правил, регулирующих личные данные. Он вступил в силу в 2018 году и ввел такое понятие, как «право на объяснение», то есть возможность для граждан Европейского союза (ЕС) ставить под сомнение логику автоматизированного решения и оспаривать его результаты. «По сравнению с существующими законами GDPR – это однозначно большой скачок вперед»,  – говорит Брайс Гудман из Института интернета в Оксфордском университете. Новый регламент создает новые правила об использовании данных и четко регламентирует влияние этих правил на деятельность любой компании, работающей с данными граждан ЕС, вне зависимости от нахождения или не нахождения данной компании в Европе. Такой документ имеет большую силу. Организации, нарушающие GDPR, ждут штрафы в размере до 4  % от их годового оборота или 20 миллионов евро, в зависимости от того, какая цифра окажется больше. Также GDPR настоятельно призывает компании предотвращать дискриминацию на основании личных характеристик: расы, религиозных убеждений и состояния здоровья. Однако обеспечить соблюдение GDPR не так-то просто. Кто может объяснить сложную работу алгоритмов машинного обучения людям, далеким от технической грамотности? И все же нам стоит попробовать. «История учит нас тому, что человеческие решения слишком часто страдают от предвзятости – сознательной или неосознанной,  – объясняет Эд Фелтен, заместитель технического директора в Управлении Белого дома по науке и технологической

политике.  – Создавая автоматизированные системы, мы несем ответственность за их совершенствование».

Надзорные программы Один из подходов заключается в создании программ, проверяющих другие программы. Kroll работает над системой, позволяющей аудитору проследить, что алгоритм делает с полученными данными то, что нужно. Другими словами, такая программа обеспечит надежный способ проверки того, что, например, победитель розыгрыша Green Card действительно был выбран случайным образом, или что алгоритм беспилотника, позволяющий избегать столкновения с пешеходами, с одинаковой точностью избегает наездов и на идущих людей, и на людей в инвалидных колясках. У Сорель Фридлер, ученого Хаверводского колледжа из Пенсильвании, имеется другое мнение. Она надеется устранить все спорные трактовки в алгоритме, поняв неоднозначность, характерную для основных данных. Ее система ищет взаимосвязи между произвольными свойствами (рост, адрес) и демографическими группами (раса, пол). Если такие корреляции приводят к нежелательной предвзятости, то имеет смысл провести нормализацию данных. По ее мнению, это поможет усовершенствовать алгоритмы. Это подходит для случаев с очевидной дискриминацией, когда системы признаются несправедливыми или противозаконными. Но что делать с разногласиями о том, как именно должна вести себя программа? Некоторые утверждают, что высокоперсонализированная корректировка цен будет обоюдовыгодной и для продавцов, и для покупателей. Другие же отстаивают результаты, полученные автоматизированными

сервисами по назначению приговора. Что неприемлемо в одном случае, является совершенно уместным в другом. В отличие от финансовых систем, здесь не существует стандартной практики по регуляции алгоритмов. Назревает трудный вопрос: как мы хотим, чтобы вели себя подобные системы? Возможно, здесь нам понадобится ИИ.

8. Унаследуют ли машины Землю? Как сверхразумные машины изменят наш мир

В течение десятилетий у нас были машины, способные превзойти нас по части вычислений. Но быстрый рост ИИ и новый спектр задач, решаемых программами, застали нас врасплох. Некоторые люди верят в неизбежность того, что машины станут умнее нас, причем произойдет это довольно скоро. Такие сверхразумные машины смогут кардинально изменить все, начиная с климатических прогнозов и заканчивая здравоохранением и социальным обеспечением. Но с развитием ИИ возникают каверзные вопросы обо всем на свете: от теологии до будущего всего человечества.

Расцвет сверхразума Понятие «сверхразумная машина» – то есть способная во всем превзойти человеческое мышление – было введено в обиход в 1965 году математиком И.  Дж.  Гудом, который работал с Аланом Тьюрингом в Блетчли-парке. Гуд отметил, что «первая сверхразумная машина станет последним изобретением, которое потребуется от человека». Ведь с тех пор машины начнут самостоятельно разрабатывать другие, более совершенные машины.

В зависимости от того, каких взглядов придерживается ваш собеседник, последнее изобретение человечества может оказаться не за горами. Потенциальное появление самосовершенствующихся машин окутано идеей сингулярности, согласно которой искусственный интеллект должен превзойти человеческий. Футуристы, включая Рэя Курцвейла, уверены, что данное событие произойдет всего лишь через пару десятилетий. Другие же считают, что сверхразум и сопровождающие его страхи о том, чем это обернется для людей,  – не более чем фантазия общества, взращенного на научной фантастике. И все же научно-фантастические страшилки упускают главное. Нам нужно позабыть все страхи о том, что ИИ выйдет из-под контроля: с появлением сверхразумных машин наш мир станет куда более странным местом, чем это показывают фильмы.

Интервью. Сингулярность не за горами Рэй Курцвейл – ученый, изобретатель и футурист. В 2009 году он стал соучредителем Университета сингулярности, расположенного в Исследовательском парке NASA в Калифорнии и специализирующегося на «экспоненциальных технологиях». С 2012 года он занимает постоянную должность в Google. Каждый день Курцвейл принимает

более 150 добавок, чтобы предотвратить старение организма до появления сингулярности. Курцвейлу мало быть просто человеком с ограниченными интеллектуальными возможностями и телом, обладающим определенным сроком годности. Идея сингулярности гласит о том, что в обозримом будущем, когда машинный интеллект превзойдет человеческий, ИИ начнет самосовершенствоваться в геометрической прогрессии. В интервью 2009 года для New Scientist Курцвейл рассказал, что люди начнут сливаться с машинами, чтобы идти в ногу со временем, становясь сверхразумными существами, способными жить вечно. И все, от Массачусетского технологического института до Белого дома, либо ненавидят эту идею, либо не могут дождаться ее реализации. Когда наступит сингулярность? –  Примерно к 2045 году. Мы уже являемся гибридом биологических и небиологических технологий. Например, у небольшой группы людей есть электронные устройства, вживленные в мозг. Последнее поколение таких устройств позволяет закачивать медицинские программы прямо в компьютер внутри вашего мозга. Учитывая, что через 15–20 лет эти технологии будут в 100  000 раз меньше и в миллиард раз мощнее, вы можете себе представить всю практическую осуществимость данного метода. И хотя в теле большинства из нас нет никакого компьютера, эти устройства уже стали частью нас самих. – А как насчет людей, которые не захотят стать «сверхлюдьми» и откажутся сливаться с технологиями? –  Сколько людей полностью отвергают всю медицину и медицинские технологии? Сколько из них не носят очки или не принимают лекарства? Люди говорят, что не хотят менять себя, но при наступлении болезни делают все возможное для скорейшего выздоровления. Мы не сможем перепрыгнуть в мир 2030 или 2040 года одним прыжком. Нас ждут тысячи маленьких шагов. Соедините эти шаги в единый путь, и в итоге мир совершенно изменится.

–  Можем ли мы как-то решить наши текущие экологические проблемы до 2045 года? – Да. Ресурсов намного больше, чем кажется. Для получения всей необходимой энергии нам нужно только заполучить 1 из 10  000 солнечных лучей. Нанотехнологии применяются к технологии аккумуляции солнечной энергии и экспоненциально растут. Такие новые наработки весьма экономичны, поскольку на них распространяется закон ускоряющейся отдачи. – Что вы подразумеваете под законом ускоряющейся отдачи? – Мощность идей по изменению мира увеличивается, но мало кто полностью осознает все последствия. Люди не мыслят экспоненциально. В то же время экспоненциальные изменения затрагивают все, что связано с изменением объемов информации. Возьмите генетическое секвенирование. Когда в 1990 году был объявлен запуск проекта «Геном человека», скептики говорили: «Вы ни за что не реализуете его за 15 лет». В процессе работы над проектом скептики не утихали, говоря, что вы завершили лишь 1 % от всего проекта. Но в реальности все идет точно по графику: получив 1  % результата, вы лишь в 7 удвоениях от поставленной цели. –  У вас отличные результаты по прогнозированию. Помогает ли экспоненциальное мышление правильно выбирать временные рамки? –  В середине 1980-х я предсказал, что Всемирная паутина появится к середине 1990-х. Тогда это звучало нелепо, поскольку весь военный бюджет США мог связать по сети лишь несколько тысяч ученых. Но я видел, как данная цифра удваивалась из года в год, и все шло точно по графику. Занятно, насколько предсказуемыми оказываются показатели мощности информационных технологий. Несмотря на это, миллионы новаторов готовы поделиться неожиданными идеями. Кто мог предвидеть появление социальных сетей? Если бы лет 20 назад я сказал, что мы создадим энциклопедию, которую каждый сможет дописать и

отредактировать, то вы бы подумали: «Боже мой, да это будет сплошное и совершенно бесполезное граффити». А коллективная мудрость действительно оказалась на удивление полезной. – Все эти достижения выглядят весьма утопично. –  Они не утопичны, потому что технология – это палка о двух концах. Ей сопутствуют и новые проблемы. Однако в целом я считаю, что плюсы технологий значительно перевешивают тот ущерб, который они могут нанести. Но с этим согласны далеко не все. – Зачем вы основали Университет сингулярности? – Питер Диамандис является основателем и председателем фонда X Prize. И я решил, что пришло время основать университет, который объединил бы ведущих специалистов в областях искусственного интеллекта, нанотехнологий, биотехнологий и передовых вычислений и помог бы решить проблемы будущего, поскольку они весьма сложны и многомерны. NASA и Ларри Пейдж из Google также поддерживают университет. Это очень интенсивный девятинедельный курс. –  Вы сказали, что хотели бы вернуть к жизни своего отца, поскольку сильно по нему скучаете. –  Да, это так. ДНК отца, собранная с его могилы наноботами, будет добавлена ко всей информации, которую ИИ извлечет из моих собственных воспоминаний и воспоминаний знакомых ему людей. Кроме того, можно будет загрузить все памятные сувениры из жизни отца, которые я храню в коробках. Отец может стать аватаром, роботом или принять какую-то другую форму.

Вопрос ценностей Страх возможного уничтожения людей умными машинами зародился еще в момент появления современных компьютеров в 1950-х годах, однако ранее затрагивал лишь отдаленные области ИИ. В последние годы научная школа, возглавляемая философом

Ником Бостромом, превратила этот «экзистенциальный риск» в главный предмет обсуждения. Его книга «Искусственный интеллект. Этапы, угрозы, стратегии» 2014 года завоевала признание множества технократов, среди которых оказались Билл Гейтс, Илон Маск и сооснователь Apple Стив Возняк. Вскоре к ним присоединились и другие общественные деятели, включая Стивена Хокинга. Хокинг рассказал ВВС, что «развитие полнофункционального искусственного интеллекта может означать конец человеческой расы… Он будет сам по себе и начнет перестаиваться со все возрастающей скоростью. Люди, ограниченные медленной биологической эволюцией, окажутся не в состоянии с ним конкурировать, поэтому будут вытеснены искусственными системами». В 2016 году он продолжил развивать эту тему, сказав, что, скорее всего, ИИ – это «лучшее или худшее, что когда-либо случалось с человечеством». Один из самых известных примеров Бострома – ИИ, помешанный на создании скрепок. Для достижения своей цели он мог пустить в расход все ресурсы на планете. С другой стороны, если поручить ИИ задачу делать людей счастливыми, то он может начать вырезать части нашего мозга, связанные с неприятными переживаниями. Поэтому нужно сделать так, чтобы цели ИИ совпадали с нашими. В июле 2016 года несколько десятков исследователей, философов и специалистов по этике собрались на закрытое заседание в Колледже Иисуса (Кембридж, Великобритания), чтобы обсудить все эти проблемы. «Экзистенциальный риск сводится к вопросу о ценностях»,  – заявил Джон Нотон, заслуженный профессор общественного понимания техники в Открытом университете (Великобритания). По мнению Нотона, ситуацию омрачает то, что люди, стоящие во главе развития ИИ, обычно отличаются технократическим отношением, в котором принятие решений на основе больших данных априори считается правильным. И точка. Итак, как же нам правильно задать цели и ценности для будущих машин?

Ответ прост: пока что мы не знаем этого. Несмотря на то, что нынешние ИИ обучаются на наборах данных, необходимых для выполнения конкретных задач, их преемники, как и мы с вами, смогут определять собственные цели. Таким образом, они научатся находить наилучшее решение проблемы. Но если мы наделим их подобной свободой, то понадобятся некие ограничители, чтобы они не «сбились с пути». Отсюда и пошли разговоры об «аварийных выключателях», которые можно будет встраивать в будущие ИИ. Еще одно распространенное мнение заключается в том, что ИИ должен стремиться к великому благу для наибольшего количества людей. Изначально сама идея звучит привлекательно. Например, экономически выгоднее покупать противомоскитные сетки от малярии, нежели создавать лекарства от редких болезней. Но в то же время склонность к массовости может означать отказ от тех индивидуальных жестов, которые нам дороги и важны для социальной сплоченности. Теоретически ИИ сможет «перешагнуть через наши этические принципы», принимая за нас хладнокровные рациональные решения. Но не факт, что его результаты нам понравятся. Серьезность проблемы еще больше возрастет, когда ИИ доберется до областей, с которыми сейчас взаимодействуют только люди.

Что случится, если ИИ станет умнее нас? Философ Ник Бостром – директор Института будущего человечества в Оксфордском университете и автор книги «Искусственный интеллект. Этапы, угрозы, стратегии» (2014). Он считает, что однажды мы создадим искусственный разум, в разы превосходящий нас по уровню интеллекта. В своей книге он объясняет, почему разумное проектирование искусственных систем окажется важнейшей проблемой из всех, с которыми приходилось иметь дело человеку. Далее приводим его текст. «Люди никогда раньше не сталкивались с более разумной формой жизни. Но это изменится, как только мы создадим машины,

значительно превосходящие нас по когнитивным способностям. Тогда наша судьба будет зависеть от воли такого "сверхразума". Почти как у горилл, судьба которых сейчас больше зависит от наших действий, чем от самих животных. Поэтому нам стоит поинтересоваться о том, чего же могут захотеть сверхразумные системы. Есть ли способ, позволяющий нам спроектировать системы мотивации ИИ в соответствии с нашими? Предположим, что сначала сверхразум окажется дружелюбным к человеку. Но есть ли гарантии того, что он сохранит свое дружелюбие даже после создания более способных версийпреемников? Пожалуй, именно эти вопросы являются важнейшими из всех, с которыми когда-либо сталкивались наш вид; они требуют создания новой науки о передовых искусственных агентах. Нам предстоит проделать колоссальную работу по поиску ответов на данные вопросы. Однако за последнее десятилетие группа математиков, философов и компьютерных ученых продемонстрировала завидные успехи. В моей книге "Искусственный интеллект. Этапы, угрозы, стратегии" рассказывается о том, почему результаты их работы одновременно тревожат и завораживают. Если говорить в общих чертах, то мы уже видим, что подготовка к переходу на машинный интеллект является основной задачей нашего времени. Но давайте сделаем шаг назад и посмотрим, почему машины с высоким уровнем общего интеллекта станут настолько важными. Под сверхразумом я подразумеваю любой интеллект, который значительно превосходит когнитивные способности человека практически во всех областях. По сути, ни одна из наших текущих программ ИИ не соответствует этому определению и, к сожалению, во много уступает даже мыши. Поэтому мы сейчас не говорим о текущих системах и версиях из ближайшего будущего. Никто не знает, сколько времени потребуется для развития искусственного интеллекта, который сможет соответствовать человеческим способностям по части обучения и

умения логически мыслить. Весьма вероятно, что на это потребуется несколько десятилетий. Но как только ИИ достигнет, а затем превзойдет этот уровень, он сможет быстро взлететь до совершенно сверхразумных высот. После того, как ученые-ИИ станут способнее ученых-людей, исследования в области искусственного интеллекта продолжатся на машинах, работающих в цифровом масштабе времени, и, соответственно, прогресс значительно ускорится. Таким образом, существует вероятность "взрыва разумности", в результате которого мы перейдем от отсутствия компьютера с человекоподобном интеллектом сразу к машинному сверхразуму, превосходящему интеллект всех известных видов. Первая система ИИ, подвергшаяся такому интеллектуальному взрыву, может оказаться чрезвычайно мощной. Это был бы единственный во всем мире сверхразум, способный молниеносно развивать множество различных технологий (например, наномолекулярную робототехнику) и использовать их для создания будущего в соответствии со своими предпочтениями. Мы можем выделить три формы сверхразума. Быстрый сверхразум может делать все, на что способен человеческий разум, но гораздо быстрее – интеллектуальная система, которая работает в 10  000 раз быстрее человеческого разума. Она сможет прочесть книгу за пару секунд и написать диссертацию к обеду. Внешний мир для столь быстрого разума как будто движется слишком медленно. Коллективный сверхразум – это система, состоящая из большого количества человекоподобных интеллектов, организованных таким образом, что общая производительность системы значительно превосходит производительность любой современной когнитивной системы. Человекоподобный разум, работающий как программа на компьютере; его легко скопировать и запустить на нескольких машинах. Если каждая копия программы окажется достаточно ценной, чтобы окупить затраты на оборудование и электроэнергию,

то это может привести к массовой популяризации. В мире с триллионами подобных разумов технический процесс будет идти намного быстрее, чем сейчас, ведь ученых и изобретателей станет в тысячи раз больше. И, наконец, качественный сверхразум, который будет как минимум так же быстр, как и человеческий разум, но значительно умнее. Это более сложное понятие. Концепция базируется на возможности существования различных интеллектов, которые будут умнее людей – точно так же, как мы умнее других животных. С точки зрения одной только вычислительной мощности, человеческий мозг не превосходит, скажем, мозг кашалота – обладателя самого большого по объему мозга весом в 7,8  кг (для сравнения, мозг среднестатистического человека весит 1,5 кг). Разумеется, ведь мозг животного идеально приспособлен к своим экологическим потребностям. Тем не менее человеческий мозг обладает способностями к абстрактному мышлению, сложным языковым представлениям и долгосрочному планированию, что позволяет нам лучше реализовать себя в науке, технологиях и инженерии. В то же время нет никаких оснований полагать, будто наш мозг умнее остальных. Вполне возможно, что мы можем оказаться самым глупым биологическим видом, способным создать технологическую цивилизацию. И эту нишу мы заняли только потому, что оказались в ней первыми, а не потому, что были к ней оптимально адаптированы. У различных типов сверхразума есть свои сильные и слабые стороны. Например, коллективный сверхразум отлично решает проблемы, которые можно разложить на независимые подзадачи. А качественный сверхразум лучше подходит для задач, требующих новых семантических представлений или сложноорганизованных рассуждений. Непрямой охват различных типов сверхразума вполне идентичен. Если первая итерация компетентна в научных исследованиях, то она

быстро превращается в общий сверхразум, поскольку сможет завершить компьютерное или когнитивное научное исследование и разработку программы, которые потребуются для создания собственных когнитивных способностей, отсутствовавших в системе ранее. Как только машинный мозг разовьется до такого уровня, он будет иметь фундаментальные преимущества перед биологическим мозгом – равно как механизмы имеют преимущества перед биологическими мышцами. Что касается аппаратного обеспечения, то оно включает в себя значительно большее количество обрабатывающих элементов, повышенную частоту работы этих элементов, ускоренную внутреннюю коммуникацию и превосходную емкость хранения. Сильные стороны программ сложнее выразить количественно. Однако здесь это все-таки необходимо. Рассмотрим, например, возможность копирования. Сделать точную копию программы довольно просто, но «копирование» человека – это куда более медленный процесс. К тому же так мы не сможем передать потомку навыки и знания, которые его родители приобрели в течение своей жизни. Поэтому намного проще редактировать код цифрового разума: это позволяет экспериментировать и разрабатывать улучшенные ментальные архитектуры и алгоритмы. Мы можем редактировать информацию о синаптических связях в нашем мозге – это как раз то, что мы называем обучением, – но мы не можем изменять общие принципы, по которым работают наши нейронные сети. Нам не стоит даже надеяться на успешное конкурирование с такими машинными мозгами. Остается лишь уповать на то, что мы сумеем спроектировать машины так, чтобы их цели совпадали с нашими. Но понять, как это сделать, – очень сложная задача. Еще не ясно, удастся ли нам решить данную проблему до того, как кому-то удастся создать сверхразум. Судьба человечества может зависеть от правильности порядка решения этих двух проблем».

Суперсоздатели Проблеск новых проблем ИИ наметился за пару месяцев до Кембриджской встречи в 2016 году. Победа AlphaGo над чемпионом мира Ли Седолем в чрезвычайно сложной настольной игре го напоминала состязание Гарри Каспарова с суперкомпьютером Deep Blue от IBM в 1997 году. Но если давняя победа демонстрировала превосходство машин в хладнокровных вычислениях, то достижение AlphaGo заключалось в другом – творчестве и интуиции. На этой встрече Демис Хассабис, соучредитель «создателя» AlphaGo – DeepMind, предложил определять творчество как способность к синтезированию знаний для создания новой идеи, а интуицией считать неявное знание, полученное в результате опыта и которое невозможно выразить сознательно. AlphaGo выиграл партию, разыграв ход, в корне отличающийся от многовековых традиционных представлений. Алгоритм не смог объяснить, почему он сделал это ход, но имел для него логическое обоснование. Так можно ли считать его действие творческим и интуитивным, пусть даже в весьма узком смысле слова? Если да, то AlphaGo положил начало новому классу разумных машин: «суперсоздателей», а не суперкомпьютеров. Но, как считает Саймон Колтон, изучающий моделирование творчества в Голдсмитском колледже Лондонского университета, если мы будем воспринимать творчество как врожденное свойство, то упустим из вида самое главное. С нетерпением ожидая будущего, в котором, скажем, ваш телефон безостановочно сочиняет музыку, Колтон перестает считать, что творчество – это некий социальный компонент, даруемый человеку (или сущности) другими. Колтон создал машины, которые умеют рисовать картины и сочинять сюжеты. Однако ученый утверждает, что невозможно оценить

работы, созданные компьютером, не пропустив их через предвзятый «человеческий фильтр». Так как быть с качествами, которые мы по сей день считаем сугубо человеческими: воображение, эмоции и, прежде всего, сознание? Пробующие себя в данных областях машины еще находятся в стадии разработки. Однако ИИ, попадающие в заголовки новостей, к ним явно не относятся. Систему можно научить выполнению новых задач. Но она, в отличие от людей, как правило, не сможет передать полученные в одной области знания в другую.

Разнообразие будущих машин Многие исследователи сходятся во мнении о том, что распространенное представление людей об ИИ (как о машине, способной мыслить на уровне человека)  – лишь отдаленная перспектива, которую невозможно будет достичь без лучшего понимания принципов работы нашего разума. Многие придерживаются мнения, что общий искусственный интеллект (ОИИ) подобного уровня достижим уже в этом столетии, но мало кто верит, что подобное возможно, если мы будем двигаться в том же русле. История изучения ИИ уже проходила зимы ИИ, когда после быстрого прогресса наступал период спада. Сверхразумной машине не обязательно имитировать все аспекты человечности (см. рис. 8.1). «Спектр будущих машин может включать в себя как ОИИ-“зомби”, похожие на человека, но не обладающие сознанием, так и ИИ с более развитым сознанием, чем у человека»,  – рассказывает Мюррей Шанахан, изучающий когнитивную робототехнику в Имперском колледже Лондона. Это объединяет их с внеземным разумом, который также может оказаться чрезвычайно умным, но совершенно бесчеловечным.



Рис. 8.1. Сверхумные машины, известные как общий искусственный интеллект, не обязательно должны думать, как мы, или обладать такими человеческими чертами, как сострадание[1]





Остается главный вопрос: насколько сильно создание таких умных и/или сознательных машин изменит наше представление о собственном месте во Вселенной? Может показаться удивительным, однако религиозный человек меньше нуждается в моральной подготовке. По словам кембриджского теолога Эндрю Дэвисона, у авраамических конфессий не должно возникнуть проблем с фактом существованием нечеловеческого разума, поскольку его красочными

примерами служат голем из еврейского фольклора и бестелесные сверхсущества из Библии. Мы только начали жить рядом с умными машинами. И сейчас, когда мы больше обеспокоены роботами-убийцами, предстоящие проблемы кажутся нам более чем странными. Однажды мы можем обнаружить, что живем бок о бок с ангелами и пришельцами.



Может ли программа страдать? Андрес Сандберг, футуролог и специалист в области вычислительной нейробиологии из Оксфордского Института будущего человечества, изучает этические и социальные проблемы, связанные с улучшением человека и новыми технологиями. Однажды мы создадим виртуальные умы, считает он. Но смогут ли они чувствовать боль? Вот как он отвечает на этот вопрос. «Уходя из офиса, я выключил компьютер и удалил симуляцию нейронной сети, над которой работал. Затем меня озарила мысль: а вдруг я что-то убил? Умом я понимал, что симуляция была проще бактерий, которых я нещадно давил на полу. Если они были не важны, то что уж говорить о нейронной сети. Однако сомнения всетаки остались… В науке существует одна проблема. Если мы хотим узнать, что на самом деле происходит с живыми существами или как излечить болезни, то зачастую приходится ставить над ними эксперименты. Цифровое моделирование предлагает обойтись без этого. Наша способность к симуляции биологических систем колоссально возросла с тех пор, как в 1950-х годах мы смоделировали гигантского аксона кальмара с помощью механического калькулятора. Сегодня мы можем выполнять нейросетевое моделирование на суперкомпьютерах, содержащих сотни миллионов реалистичных нейронов и миллиарды синапсов. В той же степени нам удалось смоделировать клетки и их внутреннее взаимодействие.

У нас появляется потенциальная альтернатива экспериментам над животными. Почему бы вместо того, чтобы подвергать живое существо боли при тестировании обезболивающего средства, не смоделировать систему болевых ощущений и не проверить, работает ли лечение? Логичным ожидаемым результатом станет симуляция, в которой каждая часть мозга и тела будет смоделирована в цифровом виде. Довольно трудно отобразить взаимосвязи в реальном мозге. Пройдут годы, прежде чем мы сможем создать хотя бы полноценный мозг насекомого. Но уже ведется работа по созданию виртуальной модели мозга нематодов C. elegansin. Червь является отличным кандидатом для решения задачи, поскольку обладает одной из простейших мозговых форм, состоящей всего из 302 нервных клеток. В 2012 году исследователи из Университета Уотерлоо (Канада) объявили о создании крупной функционирующей модели мозга – SPAUN, состоящей из 2,5 миллионов нейронов. Европейское сотрудничество по проекту Human Brain Project также ставит своей конечной целью моделирование всего человеческого мозга. Эти цифровые эмуляции смогут разрешить множество существующих этических дилемм, но они также породят и новые. Во-первых, для создания виртуальной модели придется пожертвовать многими животными. Однажды мы сможем отсканировать последнюю лабораторную крысу по имени "Лабораторная крыса обыкновенная 1.0" и с того момента полагаться только на моделирование. Но на получение такой модели уйдут годы фундаментальной нейробиологической работы. Вторая проблема заключается в том, что если мы хотим полагаться на искусственные модели при тестировании лекарств и прочих исследованиях, то должны быть уверены в их точности. Меня же особенно интересует третья проблема. Будут ли модели чувствовать боль? Должны ли мы заботиться о них, как о животных или людях, участвующих в медицинских исследованиях? Это зависит от того, способны ли программы страдать. Например, Sniffy the

Virtual Rat позволяет пользователям наблюдать за поведением крыс, подвергающимся ударам электротока. Так студенты могут обучаться психологии без использования живых существ. И все же мало кто из нас верит в «реальность» такой боли. Это, скорее, интерактивный мультфильм, как виртуальная игрушка-питомец. Мы можем сопереживать ему, но по сути это не более чем говорящая кукла. Совсем другое дело – эмуляция всего мозга с воссозданием нервных связей животных и даже людей. Философ Дэниел Деннетт в своей статье 1978 года "Почему вы не можете создать компьютер, чувствующий боль" утверждал, что у нас отсутствует четкое определение боли. Именно поэтому мы не можем создать машину, способную чувствовать боль. Он также верил в то, что со временем мы с этим разберемся, и в какой-то момент здравомыслящие люди перестанут мучить роботов. Другие философы, например Джон Сирл, наоборот утверждали, что независимо от сложности симуляция всегда останется не более чем числами с трудоемкими процессами обновления, а сама по себе программа не способна обладать настоящим сознанием или намерениями. И для "закрепления" такой системы в реальном мире ей может потребоваться физическое тело. А как же CyberChild, созданный нейробиологом Родни Коттерилом в качестве модели его теории сознания? Это виртуальная эмуляция младенца с умственной (мозг) и физической (тело) моделью, основанной на практической биологии. Эмуляция обладает такими внутренними состояниями, как уровень сахара в крови и активность в различных областях мозга. Она способна реагировать на внутренние состояния, ей нужна еда (если уровень питательных веществ становится слишком низким, модель "умирает"), она может плакать и размахивать руками. Да, это очень простой организм, но он нацелен на разумность. Есть в этом нечто жуткое: если предположить, что теория Коттерила верна, то это существо может иметь собственный опыт.

Мы знаем, что мозги существуют для побуждения к действиям, которые ведут к получению наилучшего результата для всего организма. В этом и сокрыт смысл боли, удовольствия и планирования. Если бы мы смогли создать идеальную копию активности мозга, то получили бы то же самое поведение, основанное на том же шаблоне внутренних взаимодействий. Нет способов, позволяющих узнать извне, обладал ли такой смоделированный мозг каким-либо опытом. Существуют значительные расхождения во мнениях о том, способны ли программы страдать и имеет ли это какое-либо моральное значение. Так что же нам делать? На мой взгляд, лучше быть в безопасности, чем мучиться сожалениями. Допустим, любая смоделированная система может не только обладать теми же психическими свойствами, что и организм или биологическая структура, на основе которых система была построена, но и одинаково с ними обращаться. Если ваша модель только производит нейронный шум, то у вас есть веские основания полагать, что никакой опасности здесь нет. Но если вы создадите эмуляцию мыши, которая ведет себя как настоящая, то и обращаться с ней следует так же, как с лабораторным животным. Я согласен, что для вычислительной нейробиологии это окажется крайне неудобным. Но с моральной точки зрения так будет правильно. Как только мы дойдем до эмуляций позвоночных, нужно будет руководствоваться государственными законами об испытаниях на животных. Мы должны будем избегать виртуальных страданий и отказаться от экспериментов, которые генерируют болевые сигналы. Но еще мы можем улучшить биологию. Ведь в симуляциях можно отключить болевые системы, моделировать идеальные обезболивающие средства без побочных эффектов или просто блокировать нейронную активность, связанную со страданием. В принципе, мы можем следить за эмуляцией мозга на предмет возможных страданий и прекращать эксперимент сразу после их обнаружения. Есть еще и проблема качества жизни. Мы стали в

полной мере осознавать всю важность создания благоприятных условий для животных. Однако создание столь же хороших виртуальных сред станет существенной преградой. Например, для большего комфорта виртуальным крысам может надобиться виртуальная шерсть, усы и обоняние. Что же можно сказать об эвтаназии? Живые организмы умирают навсегда. Смерть означает потерю единственного шанса остаться в живых. Но эмулированный мозг можно восстановить из резервной копии: "Лабораторная крыса обыкновенная 1.0" просыпалась бы одинаково вне зависимости от того, сколько ее копий было протестировано в прошлом. И единственное, чего бы она лишилась при восстановлении,  – это память о предыдущем эксперименте. Причем там могли оказаться как приятные, так и болезненные воспоминания. С этической точки зрения, миллион чрезвычайно счастливых моделей крысы в прошлом может оказаться «моральной компенсацией» за то, что одной из моделей придется пройти через болезненный опыт. Я верю, что в долгосрочной перспективе мы создадим эмуляцию человеческого мозга. Определить моральный статус человеческих моделей будет легче, чем у животных – мы сможем просто спросить их об этом. Возьмите выдающегося философа, который бы сомневался в разумности программ, просканируйте его мозг и спросите финальную модель, чувствует ли она себя разумной. Если ее ответом будет: "Да, черт побери. Мне нужно написать статью!" – то мы получим убедительное доказательство того, что создали существо с достаточным интеллектом, интроспекцией (самоанализом) и моральными ценностями. Такая модель может иметь собственные права. Но до тех пор давайте будем относиться к подопытным программам хорошо. Просто так, на всякий случай».

Компьютеры, бросающие вызов логике В течение 75 лет компьютеры работали в рамках, обозначенных Аланом Тьюрингом. Эти рамки могли ограничивать возможности умственного развития искусственного интеллекта. Однако сейчас началась работа по исполнению пророчества Тьюринга о создании машины, способной решить неразрешимое. Такую модель Тьюринг называл «оракулом». В своей диссертации 1938 года Тьюринг не уточнил, какую форму она может принять. Возможно, это было вполне логичным: к своим 26 годам он и так сумел стать катализатором революции. Мы были настолько заняты исследованием его богатого, разностороннего наследия и преобразованием нашего мира с помощью машин и основанных на них приложений, что могли упустить из вида оракула. Тьюринг доказал своей универсальной машиной, что любой обычный компьютер имеет ряд неизбежных ограничений. И оракул позволил бы их обойти.

За свою короткую жизнь Тьюринг так ни разу и не попытался его создать. Возможно, на то была веская причина: большинство компьютерных ученых полагает, что машина-оракул смогла бы пошатнуть все фундаментальные ограничения информационных и энергетических потоков во Вселенной. Вы никогда не сможете этого достичь. Два исследователя из лаборатории в Спрингфилде, штат Миссури, пытаются доказать, что скептики не правы. Опираясь на теоретические и экспериментальные достижения последних двух десятилетий, Эммет Редд и Стивен Янгер из Университета штата Миссури пришли к выводу о том, что создание компьютера superTuring может оказаться вполне реальным. С его помощью, как надеются исследователи, мы получим представление не только о границах вычислений, но и о самом интригующем и мощном компьютере из всех известных во Вселенной – человеческом мозге.

Компьютеры в привычном нам виде оказываются очень способными, точными и эффективными средствами визуализации того, что мы, люди, смогли бы сделать, если бы обладали точными инструкциями, высоким порогом скуки, а также неиссякаемым запасом бумаги и карандашей. Они преуспевают в последовательных сложениях, умножениях и логических решениях из разряда «если…, то…». Универсальная вычислительная машина, часто называемая просто машиной Тьюринга, делает то же самое, только без скуки. Сам Тьюринг в руководстве программиста для компьютера Mark II Манчестерского университета в 1950 году писал следующее: «Электронные компьютеры предназначены для выполнения любого универсального процесса, который был бы под силу оператору-человеку, работающему организовано, но бездумно». Следовательно, компьютеры, как и мы, имеют собственные слепые зоны. Вне зависимости от того, насколько дисциплинированными, хорошо обученными или терпеливыми мы можем быть, есть ряд вопросов, которые никак не поддаются логическому объяснению. Что есть истинность выражения «Это утверждение ложно»? В 1931 году математик Курт Гёдель продемонстрировал универсальность данной проблемы своими печально известными теоремами неполноты. В теоремах говорилось о том, что любая система логических аксиом всегда будет содержать ряд недоказуемых утверждений. Точно так же, как было предсказано Тьюрингом, универсальный компьютер, основанный на одной лишь логике, всегда будет сталкиваться с «неразрешимыми» проблемами, которые никогда не дадут прямых ответов, вне зависимости от заложенной процессорной мощности. Согласно гипотезе Тьюринга, оракул – это черный ящик, чье неопределенное содержимое может решать неразрешимые проблемы. Он предположил, что содержимое черного ящика позволит машине-оракулу выйти за пределы обычной человеческой логики и превзойти возможности любого из

когда-либо созданных компьютеров. Все это произошло в 1938 году. 50 лет спустя Хава Зигельманн случайно придумала модель компьютеров для сверхтьюринговых вычислений. В начале 1990-х годов она работала над диссертацией по нейронным сетям в Ратгерском университете в Пискатавэй, штат Нью-Джерси. Этот университет располагался всего в 40 минутах езды от Принстона, в котором Тьюринг представлял свою работу. Изначально Зигельманн пыталась теоретически доказать пределы нейронных сетей. Она хотела продемонстрировать, что при всей своей гибкости нейронные сети никогда не смогут использовать все возможности логики традиционной машины Тьюринга. Раз за разом ее ждал провал. В конце концов Зигельманн доказала обратное. Одним из отличительных признаков машины Тьюринга является то, что она не способна создать истинную случайность. Сравнивая сеть с бесконечными неповторяющимися числовыми строками, составленными из иррациональных чисел (например, число π), Зигельманн доказала, что теоретически такую сеть можно превратить в сверхтьюринговую модель. В 1993 году она даже показала, как такая сеть могла бы решить проблему остановки. Ее коллеги – ученые в области компьютерных наук встретили идею весьма прохладно, а некоторые даже враждебно. Выдвигались различные гипотезы о гиперкомпьютерах, которые с помощью нетрадиционной физики могли бы стать сверхтьюринговыми. Однако все эти задумки были либо неправдоподобными, либо сводились к откровенному абсурду. В 1995 году Зигельманн опубликовала собственное доказательство, а затем и вовсе потеряла интерес к теме. «Я была уверена в том, что решение проблемы сводилось к одной лишь математике, тогда как мне хотелось заняться чем-то более практичным, – рассказала она. – Я отказалась от дальнейших обсуждений сверхтьюринговых вычислений». Редд и Янгер были знакомы с работой Зигельманн целое десятилетие, прежде чем поняли, что их собственные исследования двигались в том же направлении. В 2010 году они проектировали

нейронные сети с использованием аналоговых входов, которые, в отличие от традиционного цифрового кода 0 и 1, могли принимать потенциально бесконечный диапазон значений. Это было куда больше, чем отголоски бесконечных иррациональных чисел Зигельманн.

Питаемые хаосом В 2011 году Редд и Янгер обратились к Зигельманн, которая в то время была директором Лаборатории биологических нейронных и динамических систем Массачусетского университета в Амхерсте, с предложением о сотрудничестве. Зигельманн ответила согласием. К тому моменту она вновь вернулась к размышлениям о проблеме сверхтьюринговых вычислений и пришла к выводу, что взвешивание иррациональных чисел было не единственным проектом, заслуживающим внимания. Здесь могло пригодиться все, что добавило бы некий элемент случайности или непредсказуемости. Трио ученых избрало путь хаоса. У хаотической системы чувствительность к небольшим изменениям своих начальных условий крайне высока. При правильном подключении аналоговой нейронной сети малейшие градации выходных значений можно было бы использовать для создания больших изменений на входе, которые затем вновь добавлялись бы в систему, вызывая большие или меньшие изменения, после чего процесс повторяется снова. По сути, такая система управляется непредсказуемым и плавно регулируемым искажением. Исследователи работают над двумя небольшими прототипами хаотических машин. Один из них – это нейронная сеть, основанная на стандартных электронных компонентах. Она состоит из трех «нейронов», представленных в виде интегральных микросхем, и 11 синаптических соединений на печатной плате, размером чуть больше, чем книга в твердом переплете. Другой прототип состоит из

11 нейронов и порядка 3600 синапсов. Он использует лазеры, зеркала, линзы и фотонные детекторы для кодирования своей информации в свете. Команда ученых считала, что таких прототипов должно хватить для того, чтобы выйти за пределы тьюринговых вычислений, пусть и в малом масштабе. Это заявление спровоцировало волну скептицизма. Основная проблема возникала, когда математические модели, включающие в себя любого рода бесконечности, сталкивались с реальностью. Дело здесь вовсе не в математике, а в спорности существования истинной случайности и управления ею. Такой вопрос однозначно возникал и у Тьюринга. Он часто размышлял о связи между внутренней случайностью и происхождением творческого интеллекта. В 1947 году Тьюринг пошел еще дальше и предложил своему изумленному руководству из Национальной физической лаборатории Великобритании близ Лондона добавить радиоактивный радий в созданное им автоматическое вычислительное устройство в надежде на то, что его якобы случайные распады придадут входным значениям желаемую непредсказуемость. «Я не думаю, что Тьюринг хотел создать машинуоракула, – говорит Зигельман. – Скорее, он намеревался построить нечто более похожее на мозг». С тех пор неизменной целью ученых стало создание компьютера с мозгоподобными качествами. И последняя крупномасштабная инициатива на данном поприще стала частью проекта Human Brain Project, базирующегося в Федеральной политехнической школе Лозанны в Швейцарии. Однако все усилия сводились к созданию копий нейронов с помощью стандартной цифровой технологии машины Тьюринга. Янгер и Редд знают обо всех трудностях, однако все еще верят, что использование менее жесткого подхода в хаотических нейронных сетях может принести свои плоды.

Интервью. Почему ИИ – это опасная мечта

Ноэль Шарки – почетный профессор искусственного интеллекта и робототехники в Шеффилдском университете, соучредитель Международного комитета по контролю за роботизированными вооружениями, а также активист кампании против роботов-убийц. В интервью 2009 года для New Scientist он объясняет, почему считает ИИ опасной мечтой, ведущей к антиутопическому будущему неразумных и бесчувственных робокаров и солдат. – Что для вас означает искусственный интеллект? –  Мне нравится, как описал искусственный интеллект пионер отрасли Марвин Минский. Он сказал, что искусственный интеллект – это наука о том, как заставить машины выполнять задачи, требующие от человека разумности. В то же время есть масса интеллектуальных человеческих задач, которые выполняются машинами весьма глупыми способами. Люди обладают ограниченной памятью. Поэтому для нас шахматы становятся сложной проблемой распознавания образов, требующей недюжинного интеллекта. Компьютер Deep Blue побеждает грубой силой, быстро просчитывая исходы миллионов ходов. Это как заниматься армреслингом с экскаватором. Я бы немного переработал определение Минского и назвал бы ИИ наукой о создании машин, которые заставят нас поверить в их собственную разумность. – Способны ли машины к разумности? – Если говорить об интеллекте с точки зрения животных, то я бы сказал, что нет. Для меня ИИ – это область выдающихся инженерных достижений, которые помогают нам моделировать живые системы, а не заменять их. Именно человек, а не машина, разрабатывает алгоритмы и программирует их «разумность». –  Близки ли мы к созданию машины, которую можно будет по праву назвать разумной? –  Я придерживаюсь принципов эмпиризма и не вижу никаких доказательств проявления сознания у искусственных машин. Довольно часто люди забывают о том, что концепция

вычислительной природы сознания или мозга – это не более чем предположение, которое нельзя считать истиной. Всякий раз, когда я указываю на этот факт приверженцам вычислительной теории сознания, мне парируют чуть ли не религиозными аргументами. Многие говорят: «А что же еще там может быть? Неужели вы верите в то, что разум обладает сверхъестественной природой?» Но если допустить, что сознание является физической сущностью, то это также ничего не скажет о природе этой сущности. Вполне возможно, что сознание окажется физической системой, которую просто невозможно будет воссоздать с помощью компьютера. –  Тогда почему же так популярны прогнозы о захвате мира роботами? –  Страх перед новыми технологиями был всегда. Он основан на том, что людям трудно осознать быстрое развитие чего-либо. Мне нравится научная фантастика, я нахожу ее очень вдохновляющей. И все же не стоит забывать, что это выдумка. Технические объекты не обладают собственной волей или желаниями. Так почему же они вдруг «захотят» захватить наш мир? Айзек Азимов сказал, что, когда начал писать о роботах, то единственное, о чем все могли думать, – это идея о захвате ими нашего мира. Никто не хотел слышать ничего другого. Когда мне звонили с вопросами журналисты, я отвечал, что не верю в захват мира ИИ или роботами, и меня вежливо благодарили, вешали трубку и никогда не публиковали моих комментариев. – Вы описываете ИИ как науку об иллюзии. –  Я уверен, что ИИ, в частности робототехника, использует естественный зооморфизм человека. Мы хотим, чтобы роботы выглядели как люди или животные. Этому желанию способствуют культурные мифы об искусственном интеллекте и наша добровольная вера в невероятное. Древние создатели автоматических устройств, начиная с Герона Александрийского, который придумал первого программируемого робота в 60-м году н.  э., видели в своей работе некую естественную магию. Они

пользовались различными трюками и иллюзиями, чтобы заставить нас поверить в то, что их машины были живыми. Данная традиция сохранилась и в современной робототехнике с ее машинами, распознающими эмоции и изменяющими выражения своих силиконовых лиц, демонстрируя участливость. Чат-боты умеют подбирать подходящие для разговора предложения. Если бы те, кто создает ИИ, приняли на себя роль шулеров и были бы честны о своей работе, то мы бы достигли больших успехов намного быстрее. –  Такие взгляды резко контрастируют с мнениями многих ваших коллег в области робототехники. –  Да. Робототехник Ханс Моравек считает, что со временем компьютерная обработка превысит скорость человеческого мозга, и это превратит роботов в наших хозяев. Изобретатель Рэй Курцвейл говорит, что к 2045 году люди «сольются» с машинами и будут жить вечно. Для меня это просто сказки. Я не вижу никаких признаков того, что это может произойти в реальности. Данные идеи основаны на предположении о вычислительной природе сознания. Возможно, это и так. Но, возможно, и нет. Вероятность одинакова. Моя работа концентрируется вокруг актуальных проблем ИИ. И нет никаких доказательств того, что когда-либо машины обойдут нас или обретут сознание. – Существуют ли, по вашему мнению, какие-либо опасности, если мы решим поверить в мифы об ИИ? –  Вполне возможно, такая вера ускорит наш переход к антиутопическому миру, в котором военные действия, охрана правопорядка и забота о слабых будут осуществляться искусственными сущностями, не способными к сочувствию, состраданию и пониманию. –  Как вы отнеслись бы к роботу, ухаживающему за вами в старости? –  Развитие отрасли гериатрических роботов в Японии стремительно набирает обороты. Они могут стать отличной альтернативой, позволяющей не оказаться в доме престарелых.

Роботы могут взять на себя множество рутинных обязанностей и помогать в задачах, выполнение которых осложнено провалами в памяти. Но это палка о двух концах. Больше всего я обеспокоен тем, что после испытания и тестирования роботов может возникнуть соблазн переложить на них всю заботу о престарелых. Пожилые люди, как и все мы, нуждаются в любви и человеческом контакте. И довольно часто это исходит только от тех, кто за ними ухаживает. Лично мне кажется, что робот-компаньон не сможет удовлетворить эту потребность. – У вас также есть опасения по поводу военных роботов. –  Многотысячная армия роботов в воздухе и на земле дает существенное военное преимущество. Никто не станет отрицать пользу роботов при обезвреживании бомб или наружном наблюдении для обеспечения безопасности солдат. Мои опасения связаны с использованием вооруженных роботов. Атаки беспилотников зачастую зависят от достоверности разведывательной информации. Взять, к примеру, Вьетнам. Тогда США начали нападать на людей с карточными долгами осведомителям. Чрезмерное использование технологий в данном случае привело к смерти многих невинных людей. Американские документы по планированию четко указывают на стремление США к разработке автономных машин для убийств. Однако ИИ не в состоянии отличить участника военных действий от мирного жителя. Утверждения о скором появлении таких систем голословны и необоснованны. – Вы именно поэтому призываете людей к соблюдению этических норм и законов, регулирующих использование роботов? –  Я потратил много времени на изучение мирового законодательства по описанным мною областям этики использования роботов (уход за детьми, охрана правопорядка, уход за престарелыми, военная служба, медицина). И нахожу действующее законодательство неподходящим. Мне кажется, что существует острая необходимость обсуждения данного вопроса

между различными профессиональными организациями, гражданами и политиками. Им следует принять решение, пока еще позволяет время. Развитие роботов способно произойти внезапно, как бум Интернета, и мы окажемся к нему не готовы. Я боюсь, что как только «искусственный джин» выйдет из бутылки, будет уже слишком поздно, чтобы вернуть его обратно.

Пять причин, почему сингулярности не бывать Сообщается, что после обсуждений возможного ИИ-апокалипсиса с Демисом Хассабисом из DeepMind Стивен Хокинг, не обладающий должным объемом специальных знаний по ИИ, смягчил свои прогнозы. Но опасения, выражаемые рядом авторитетных лидеров мнений, включая Хокинга и Билла Гейтса, вращаются вокруг идеи сингулярности. Сингулярность пророчит, что Землю заселят более разумные виды. Мы можем проследить эволюцию данной идеи до нескольких мыслителей, включая Джона фон Неймана (одного из основателей вычислительной техники) и Вернора Винджа (писателяфантаста).

Идея сингулярности существует столько же, сколько и сам ИИ. В 1958 году математик Станислав Улам написал посвящение недавно умершему фон Нейману, в котором говорилось следующее: «Один разговор был посвящен все более ускоряющемуся технологическому прогрессу и тем изменениями в образе жизни людей, которые указывают на приближение неизбежной сингулярности… за пределами которой человек больше не сможет вести дела в привычном для него виде». Существует несколько причин для страха перед машинами с интеллектом, превосходящим наш. По сути люди стали доминирующим видом на планете только благодаря интеллекту. Многие животные крупнее, быстрее и сильнее нас. Но мы использовали наш интеллект для создания инструментов, сельского хозяйства и многих удивительных технологий, включая паро- и электродвигатели, а также смартфоны. Все это изменило наши жизни и позволило нам занять главенствующую роль на планете. Поэтому неудивительно, что машины, которые мыслят – и могут мыслить лучше нас,  – способны свергнуть нас с пьедестала. И тогда наше собственное существование будет зависеть от решений

превосходящих нас по интеллекту машин. Подобно тому, как жизни слонов, дельфинов и панд подчинены нашей доброй воле. Идея интеллектуального взрыва, при котором машины начинают рекурсивно совершенствовать собственный интеллект и стремительно превосходят возможности человеческого разума, больше не кажется такой уж бредовой. Область машинных вычислений лишь выиграет от таких экспоненциальных тенденций. Поэтому не исключено, что сфера ИИ также продемонстрирует экспоненциальный рост. Но есть несколько веских причин, указывающих на несбыточность сингулярности.

1. Аргумент о «быстро думающей собаке» Если сравнить человеческий мозг и кремний, то последний будет обладать значительным преимуществом по части скорости. И по закону Мура это преимущество удваивается в среднем каждые два года. Вот только скорость никак не сказывается на улучшении интеллекта. Даже если я научу собаку думать быстрее, вряд ли она сможет играть в шахматы. У собаки отсутствуют необходимые умственные конструкции, язык и абстракции. Стивен Пинкер красноречиво выразился о проблеме: «Чистая вычислительная мощность – это не пыльца фей, которая волшебным образом решит все наши проблемы». Быть разумным означает куда большее, чем уметь думать о чем-то быстрее или дольше других. Конечно, закон Мура помог ИИ. Теперь мы учимся быстрее и на больших наборах данных. Шустрые компьютеры, безусловно, помогут нам в создании искусственного разума. Но, например, у людей интеллект зависит от многих других вещей, включая многолетний опыт и обучение. Совсем не ясно, получится ли «уместить» все это в кремнии, увеличив тактовую частоту или добавив больше памяти.

2. Аргумент об антропоцентризме Сингулярность предполагает, что человеческий разум – это некий промежуточный этап, своего рода переломный момент. Если в истории науки и есть что-то, чему мы должны были научиться, – так это то, что мы не такие особенные, как нам хотелось бы думать. Коперник рассказал нам, что Вселенная не вращается вокруг Земли. Дарвин показал, что мы ничем не отличаемся от других обезьян. Уотсон, Крик и Франклин открыли, что мы с простейшими амебами используем для жизни один и тот же код ДНК. А искусственный интеллект гарантированно докажет нам, что сам по себе человеческий разум не представляет собой ничего особенного. Нет никаких оснований полагать, будто человеческий интеллект окажется тем самым переломным моментом, достижение которого обеспечит стремительный рост разумности. Конечно, интеллект человека – это нечто особенное, потому как, насколько нам известно, человеческий род уникален своей способностью к созданию материальных объектов, усиливающих наши интеллектуальные способности. Мы единственные существа на планете, обладающие достаточными умственными способностями для разработки нового интеллекта. И этот новый интеллект не будет ограничиваться медленным процессом эволюции и репродукции человека. Однако мы все еще далеки от переломного момента, некой точки рекурсивного самосовершенствования. У нас нет аргументов в пользу того, что разума человека будет достаточно для создания того самого искусственного интеллекта с соответствующим уровнем умственного развития, который и станет отправной точкой для технологической сингулярности. Даже если наши умственные возможности позволят создать сверхчеловеческий искусственный интеллект, полученного результата может оказаться недостаточно для приближения

сингулярности. Ведь совершенствовать интеллект куда труднее, чем быть просто разумным.

3. Аргумент о законе убывающей отдачи Идея сингулярности предполагает, что улучшение интеллекта будет происходить за счет относительно постоянного множителя, и каждое поколение получит большую долю, чем предыдущее. В то же время работа большинства наших систем искусственного интеллекта до сих пор сводилась к закону снижения отдачи. Сначала многие вещи легкодостижимы, но затем в поиске улучшений мы сталкивались с рядом трудностей. Это и объясняет чрезмерный оптимизм заявлений многих ранних исследователей ИИ. Система ИИ может бесконечно улучшать себя, однако развитие интеллекта весьма ограничено. Например, если каждое поколение алгоритма будет улучшаться на половину от предыдущей модификации, то такая система не сможет выйти за пределы удвоения своего общего интеллекта.

4. Аргумент о «пределах разумности» Во Вселенной есть множество фундаментальных ограничений. Часть из них – физическая. Например, вы не можете разогнаться до скорости света, знать одновременно точное положение и импульс или условия распада радиоактивного атома. Любая созданная нами разумная машина будет ограничена законами физики. Конечно же, если сама эта машина окажется электронной или квантовой, то физические ограничения выйдут за биологические и химические пределы человеческого мозга. Тем не менее ИИ может отлично работать даже в условиях некоторых фундаментальных ограничений. Ряд ограничений

обусловлен свойственной природе неопределенностью. Вне зависимости от того, насколько усердно мы размышляем о проблеме, качество принятых нами решений, скорее всего, окажется весьма ограниченным. Даже сверхразум не сможет предсказать победителя лотереи EuroMillions лучше нас самих.

5. Аргумент о «вычислительной сложности» И, наконец, в информатике уже есть собственная теория о сложности решения различных проблем. Существует множество вычислительных проблем, для практического решения которых даже экспоненциальных улучшений оказывается недостаточно. Компьютер не может анализировать код и точно знать момент остановки. Это называется «проблемой остановки». Как известно, Алан Тьюринг доказал, что такая проблема вообще не поддается вычислению, вне зависимости от того, насколько быстрым или умным мы сделаем компьютер, анализирующий код. Здесь поможет переход на другие типы устройств (например, квантовые компьютеры). Но они, по сравнению с классическими компьютерами, будут предлагать только экспоненциальные улучшения, которых окажется недостаточно для решения таких задач, как проблема остановки. А гипотетическое появление гиперкомпьютеров, способных прорваться сквозь вычислительные барьеры, остается весьма спорным.

Близко ли зима ИИ? Вот прогноз, который может показаться всем нам знакомым: «Через 3–8 лет у нас появится машина с общим интеллектом под стать человеческому. Я имею в виду машину, которая сможет читать Шекспира, менять моторное масло, шутить, участвовать в драках и офисных интригах. К этому моменту она будет обучаться с фантастической скоростью. Через несколько месяцев ее интеллект окажется на уровне гениальности, а еще через пару месяцев возможности такой машины станут безграничными». Примечательно здесь то, что эти фразы не принадлежат современным визионерам ИИ, вроде Ника Бострома или Илона Маска. Такой прогноз был сделан в 1970 году одним из отцовоснователей ИИ – Марвином Минским. Но восемь лет спустя пределом возможностей ИИ стала лишь обучающая игрушка Speak & Spell, в которой использовалась элементарная компьютерная логика. Как только пропасть между обещаниями Минского и реальностью стала еще шире, всеобщее разочарование в ИИ привело к заморозке профильных исследований на целые десятилетия. Сегодня опять слышны отголоски тех предсказаний. Но на этот раз они подпитываются восторгом, окружающим глубокое обучение. «Я уже чувствую мурашки по коже»,  – признается Роджер Шэнк из Северо-западного университета в Эванстоне, штат Иллинойс. Но что это – ропот ветеранов, пропустивших настоящую революцию ИИ, или предвестник чего-то реального? Первая зима ИИ была вызвана двумя факторами. Во-первых, в исследовательской монокультуре процветал метод, основанный на своде правил, – символическое обучение. Оно пыталось подражать простейшей человеческой логике рассуждений. В лабораториях на такие исследования возлагались колоссальные надежды, благодаря чему и возникли топорные прогнозы Минского и других ученых. Поскольку сомнительные прогнозы накапливались, Научно-

исследовательский совет Великобритании заказал отчет для оценки возможностей ИИ. Результат был убийственным. В отчете Лайтхилла за 1973 год было сказано, что огромный потенциал обучения на своде правил, который демонстрировался в лабораториях, не годился для работы в реальных условиях. Правительства прекратили финансирование исследований ИИ в университетах. Аспиранты стали искать лучшей жизни в других областях, вызывающих большее уважение. Те же, кто остался, говорили о своей работе приглушенным тоном и намеренно отказывались от использования фразы «искусственный интеллект». Пройдет еще два десятилетия до того, как область ИИ сможет возродиться. Восстановление началось в 1997 году, когда Deep Blue – искусственный интеллект, созданный в IBM,  – смог победить действующего чемпиона по шахматам. В 2005 году автономный автомобиль проехал самостоятельно отрезок в 210 км (131 милю). В 2011 году Watson от IBM обыграл двух соперников-людей в телевикторине Jeopardy! Но именно глубокое обучение стало тем самым элементом, обусловившим популяризацию ИИ.

Золотая лихорадка ИИ В 2012 году Google помпезно представила нейронную сеть, способную распознавать кошачьи морды на видео. Люди начали говорить о том, что при должной вычислительной мощности глубокое обучение приведет к созданию машины, способной разрабатывать собственные концепции и, следовательно, понимать мир. Два года спустя Google купила DeepMind – фирму, которая затем получила приз в 500 миллионов долларов, победив в игре в го. Кто-то даже смело заявлял, что ранние успехи ИИ привели к настоящей золотой лихорадке. Один стартап обещал превратить рак из массового убийцы в управляемую хроническую болезнь, другой

строил амбициозные планы по раннему выявлению потенциальных террористов по чертам лица человека. Объединяло эти идеи то, что при правильном сочетании алгоритмов они действительно могли представить какие-то решения проблем, считавшихся неразрешимыми. –  Главная загадка нейронных сетей кроется в том, что каким-то необъяснимым образом они способны учиться на данных и понимать то, что не видели ранее, – рассказывает Марк Бишоп из Голдсмитского колледжа Лондонского университета. –  Из-за этой сложности люди закрывают глаза на многое и представляют себе, что слияние алгоритмов позволит получить некий эволюционировавший интеллект. Но на деле это все та же машина, в основе которой лежат математические системы, управляемые правилами, – говорит Шанк. В 2014 году документ, который можно считать продолжателем идей из отчета Лайтхилла, пошатнул веру в то, что нейронные сети способны демонстрировать нечто, отдаленно похожее на реальное понимание. Такие сети распознают шаблоны, выискивая взаимосвязи в наборах данных, которые человеку обнаружить слишком сложно. Это действительно важно, поскольку опровергает идею о том, что машины способны развить в себе понимание мира. Нейронная сеть может сказать, что кошка – это кошка. Но она понятия не имеет, что такое кошка. Данный документ не единственное, что вызвало в людях чувство дежа вю. Шанк и другие указали на поток денег, вливаемых в глубокое обучение и накопление фундаментальных знаний. «Если некая область исследований слишком сильно увлечена краткосрочным прогрессом, изучая возможности лишь одной методологии, это может привести к долгосрочному тупику»,  – рассказывает Кеннет Фридман, студент Массачусетского технологического института. Далее он подчеркивает, что большинство студентов, изучающих ИИ и информатику, массово склоняются к глубокому обучению.

Беспокойство вызывает не только старая гвардия. Диспепсическое урчание исходит от передовых приложений для машинного обучения, включая Crowdflower – компанию по очистке данных, которая заставляет задуматься о том, не страдает ли сфера ИИ от «чрезмерного ажиотажа». Но мало кто испытывает страх от того, что пузырь ИИ готов лопнуть – снова. «Не уверен, что мы можем вообще говорить о пузыре»,  – говорит Майлз Брандейдж из нового Центра стратегических исследований ИИ Института будущего человечества в Оксфорде. Однако если вдруг такой пузырь и существует, то в настоящий момент обстановка в нем довольно спокойна, считает ученый. «Я не думаю, что в ближайшее время ИИ исчерпает свой потенциал. В этой области столько всего, что само плывет нам в руки; так много возможностей и ожиданий», – объясняет он. Даже в Cassandra настаивают, что они не хотят принижать успехи развития технологий. «Я впечатлен тем, чего смогли добиться люди, – рассказывает Марк Бишоп. – Никогда бы не подумал, что застану день, когда машины победят в го. И распознавание лиц работает уже почти на 100 %». Но взволновали окружающих далеко не эти приложения, а обещания по лечению рака и прекращению старения. Даже если ИИ сможет оправдать эти ожидания, препятствия на его пути не исчезнут. Например, люди не готовы признать абсолютную неэффективность глубокого обучения. Также они не понимают, насколько сложно получить тот самый необходимый объем данных для реализации амбициозных обещаний некоторых фирм. Особенно это актуально для медицины, в которой вопросы конфиденциальности данных являются главным камнем преткновения, мешающим получать достаточное количество больших данных. Пока что трудно говорить о том, приведет ли дефицит данных к настоящей зиме. В прошлом уже отмечались периоды утраты иллюзий об ИИ без наступления полноценного кризиса. Тут все зависит скорее от степени разочарования, с которой готовы

смириться люди и финансирующие организации. Большинство людей все же склонно не волноваться о наступлении зимы ИИ. В настоящее время самая главная проблема ИИ заключается в том, что инвесторы не успевают «печатать деньги» для подпитки продолжающейся золотой лихорадки. И не говорите, что вас не предупредили.

Классные штуки, которые можно проделать с компьютером Почему мы уверены, что машины находятся на грани понимания окружающего мира? Возможно, наша уверенность провоцируется словами, которые мы используем: машинное обучение, глубокое обучение, нейронные сети и когнитивные вычисления. Все это подразумевает наличие мышления. –  Восприятие означает мышление. Но ваша машина не думает, – утверждает Роджер Шанк из Северо-западного университета в Иллинойсе. – Когда люди говорят «ИИ», они имеют в виду вовсе не искусственный интеллект, а множество грубых вычислений. Патрик Уинстон из Массачусетского технологического института называет такие понятия «словами-чемоданами». Определения этих слов настолько расплывчаты, что в них можно заключить любое значение. Искусственный интеллект является ярким примером словчемоданов. То же можно сказать и про машинное обучение, ведь никакого обучения в традиционном смысле слова оно не обозначает. Нейронные сети не являются нейронами, даже несмотря на то, что между ними прослеживаются некие параллели. Это не просто терминология. Скажите людям, что машина думает, и они сочтут, будто машина думает так же, как человек. Если такая противоречивость представлений разрастется слишком сильно, то она может привести к тому, что пузырь ИИ наконец-то лопнет. «Началом и концом проблемы станет понятие "искусственный разум",  – уверен Шанк.  – Разве нельзя называть такие системы

просто "классными компьютером"?»

штуками,

которые

можно

проделать

с

Заключение В 1997 году Deep Blue от IBM обыграл Гарри Каспарова в шахматах. Тогда он считался эталоном человеческого интеллекта. Но победа машины над человеком стала настоящим ударом. Если машины превзошли нас в шахматах, то что же будет дальше? Как оказалось, ничего особенного. Программа смогла обыграть чемпиона по шахматам только благодаря компьютерным вычислениям, позволяющим ей просчитывать исходы миллионов возможных шагов. Однако ни в чем другом она так и не преуспела.

В 2016 году новая разновидность искусственного интеллекта с выдающейся универсальностью и способностью к обучению в процессе работы смогла обыграть Ли Седоля в го. На этот раз последствия от ее победы были совершенно иные. Программа машинного обучения оказалась в состоянии решить широкий круг человеческих задач, что могло не только лишить множество людей работы, но и заставить нас решать сложные этические вопросы о дальнейшем функционировании мира. Фантастический альянс философов, технических специалистов и кинематографистов породил массовые опасения о том, что следующее поколение ИИ способно уничтожить человечество. Но паранойя вполне объяснима. ИИ бросает вызов давним представлениям об исключительности человека. Эти идеи пережили коперниковскую и дарвиновскую революции, и они могут проиграть интеллектуальным машинам. Здесь возможно влияние и технопессимизма – в первую очередь мы предсказываем потенциальные минусы, забывая о возможных плюсах. Нам необходимо стать ближе к реальности. Мы еще очень далеки от создания машины, способной воспроизводить полный набор интеллектуальных способностей человека. А угроза исчезновения

человечества из-за сверхразумов – если такие системы кто-то и создаст – остается чем-то из разряда фантастики. И все же ИИ становится все более мощным инструментом, и мы безусловно сталкиваемся с новыми обязанностями. Даже без сингулярности ИИ способен увеличить современное социальное неравенство и дестабилизировать мировой порядок. Одна из актуальных проблем касается «власть имеющих» и «неимущих». Лучшие мировые ИИ находятся в руках частных компаний. Google заявил, что все значимые достижения будут разделяться с Организацией Объединенных Наций… но на каких условиях? Множество прогнозов о влиянии ИИ на общество обещают стабильный прогресс – на том же уровне, что и в последние годы, а может даже быстрее. Но и это не точно. Возможно, изменения будут происходить медленнее, чем предполагают люди. Тем не менее это не повод избегать долгосрочного планирования. Если мы сделаем все правильно, ИИ позволит нам стать богаче, умнее и здоровее. Если мы в чем-то ошибемся, то это станет одной из худших ошибок в истории человечества.

50 идей Этот раздел – не просто стандартный список литературы. Он поможет вам еще глубже разобраться в теме.

4 цитаты об искусственном интеллекте 1. «Машины с завидной периодичностью застают меня врасплох» (Алан Тьюринг, 1950). 2. «Вопрос о том, могут ли машины мыслить, равносилен вопросу о том, могут ли подводные лодки плавать» (Эдсгер Дейкстра (1930– 2002), ученый в области информатики, первопроходец в различных технических направлениях, 1984). 3. «Существует ли Бог? Я бы сказал: "Пока что нет"» (Рэй Курцвейл, изобретатель и футурист, 2011). 4. «Я не работаю над запретом ИИ творить зло по той же причине, по которой не борюсь с перенаселением Марса» (Эндрю Ын, ученый в области информатики в Стэнфордском университете, бывший руководитель исследовательских проектов в китайском интернетгиганте Baidu, 2015).

10 интересных ботов в Twitter По некоторым оценкам, боты генерируют до четверти всех твитов. Вот 10 стоящих примеров, на которые будет полезно подписаться. 1. @oliviatatersis – имитация девочки-подростка, которая активно общается со своими подписчиками. 2. @TwoHeadlinestweets – подборки различных заголовков новостей. 3. @haikud2 определяет твиты, которые соответствуют формату хайку. 4. @eeququakebottracks следит за землетрясениями по всему миру. 5. @valleyedits оповещает, когда кто-либо из Google, Facebook, Apple, Twitter или Wikimedia Foundation анонимно редактирует статьи в Википедии. 6. @parliamentedits – то же самое для анонимных изменений, сделанных кем-то из парламента Великобритании (есть и другие роботы, оповещающие об анонимных изменениях статей, сделанных парламентариями других стран, включая США, Канаду и Швецию). 7. @greatartbot – оригинальная пиксельная графика четыре раза в день. 8. @ArtyOriginalsretweets – оригинальные изобразительные работы ботов @ArtyAbstract, @ArtyPetals, @ArtyFractals, @ArtyMash, @ArtyShapes и @ArtyWinds. 9. @archillecttweets публикует понравившиеся ему изображения из сети (@archillinks репостит изображения с авторством). 10. @NS_headlines генерирует идеи по выдуманным статьям для New Scientist.

4 интересных изобретения ИИ 1. Карточная игра, придуманная исследователями GenoCard из ITуниверситета Копенгагена в Дании. Созданный ими ИИ придумывает правила для новых карточных игр. Вот правила игры Pay the Price. Игра рассчитана на трех игроков. I. Игра начинается с того, что каждому игроку раздается по 9 карт и по 99 жетонов. Остальная часть колоды располагается в середине стола. II. Игроки делают обязательную ставку на один или несколько жетонов. III. Далее каждый игрок берет по одной карте из колоды и показывает ее другим игрокам. IV. При желании любой игрок может взять дополнительные карты из колоды, не показывая другим игрокам. Но за каждую взятую карту игрок должен сбросить три текущие карты. V.  Игроки могут повторять предыдущие шаги, пока у них не останется менее трех карт. VI. Когда все игроки довольны своей раскладом, они раскрывают свои карты. Туз, король, дама и валет оцениваются в 10 баллов. Игрок с самым высоким баллом выигрывает раунд и забирает все жетоны со стола. –  Игрок может заметить некоторое сходство с блэкджеком,  – рассказывают исследователи GenoCard Хосе Мария Фонт и Тобиас Малманн. Правила блэкджека были частью первоначального «генофонда», на основании которого создавался эволюционный алгоритм данной игры. – Мы можем только догадываться о том, что игра содержит «генетический материал» из блэкджека, но не знаем этого наверняка, поскольку данную игру придумали не мы.

2.  Кроссворд из New York Times от Dr Fill (искусственного интеллекта, созданного доктором Филлом Мэттью Гинзбергом)

оказался чуть ли не самым лучшим кроссвордом из всех опубликованных людьми. Алгоритм сам придумывает пояснения к загаданным словам. Вы можете проверить свои знания ниже. (Кроссворд приведен на языке оригинала, ответы даны в конце этого раздела.)



ПО ГОРИЗОНТАЛИ 1. Most celebrated

6. 20’s suppliers 10. Element in Einstein’s formula 14. Noted clergyman 15. Unit of loudness 16. Graphic beginning 17. Peaks 18. Prefix with market 19. Sigmund’s sword 20. It’s legal in Massachusetts 23. Timorous 24. Data measure 25. Tend 27. Native-borne Israelis 32. The skinny 35. Type of skirt 37. Nonsense, slangily 38. Not-so-great explanation 41. Just around yon corner 42. “Groenlandia”, e.g. 43. __ to the city 44. Slays 46. Wants 48. Oz dog 50. Kind of ax or ship 54.  Video game featuring Gloom-shrooms, Melon-pults and Cherry Bombs 59. Grade 60. Cruising 61. Exuviates 62. Confess 63. Pastures 64. Where Rushdie’s roots are 65. Vitamin A sources

66. Famous last words 67. Itsy-bitsy



ПО ВЕРТИКАЛИ 1. Women with __ 2. 70’s Renault 3. Ashlee Simpson album with the song “Boyfriend” 4. Convertibles that extend 5. Red Sox Nation’s anthem 6. Culmination 7. Display contempt for 8. Brightly colored eel 9. Two jiggers 10. Men who made a star trek 11. Subtle quality 12. Prenuptials party 13. Not all 21. Anasarca 22. Extend to 26. Kon – ___, Heyerdahl’s boat 28. Sternum 29. Chess castle 30. Middle East port 31. Vodka sold in blue bottles 32. “If __ My Way,” 1913 classic 33. One-billionth: Comb. form 34. Scamper away 36. Unemployed 39. Actress Ekland 40. Cardio option 45. Key on a cash register 47. “Nerts!”

49. Show case? 51. Diacritical mark 52. Admit 53. Test type 54. Say the rosary 55. Pumice 56. Energy source 57. Fresh reports 58. Silents star Pitts



3. Видеоигра, созданная Angelina Space Station В игре Invaders вы управляете ученым, который должен сбежать с космической станции. Для этого ему приходится отбиваться от роботов-убийц и вторжения инопланетян. Иллюстрацию придумал создатель Angelina и соавтор игры Майкл Кук. Но эскиз каждого уровня, поведение врагов и бонусы, наделяющие игрока дополнительными способностями, придуманы Angelina. Сыграть в эту браузерную игру можно здесь: https://www.newscientist.com/article/space-station-invaders/ Здесь можно поиграть в другие игры Angelina: www.gamesbyangelina.org/games/



4. Рецепт тайского штруделя с индейкой от Chef Watson (6 порций) ИНГРЕДИЕНТЫ • 450 г индейки • Замороженное тесто • Половина молотого тайского перца чили • 1 чайная ложка рисовой муки • Лимонник на кончике ножа • Зеленая паста карри • 1¾ кочана салата-латук

• 500 г нарезанного картофеля • 13 шт. нарезанного лука-батуна • 1½ чайной ложки растительного масла • Оливковое масло (для сбрызгивания) • 115 г сыра Грюйер, нарезанного кубиками • 100 г сыра Проволоне ЭТАПЫ ПРИГОТОВЛЕНИЯ I. Отварить салат в кипящей воде. II. Слить воду и отжать. III. Нагреть растительное масло. IV. Добавить зеленый лук-батун, тайский перец чили и тушить около 7 минут. V.  Мелко нарезать индейку, сыры, добавить лимонник и рисовую муку. VI. Переложить в миску и перемешать с зеленым луком, листьями салата и картофелем. VII. Приправить солью и перцем. VIII. Разогреть духовку до 180 °C. IX. Смазать большой противень оливковым маслом. X. Сложить тесто слоями и сбрызнуть оливковым маслом. XI. В середину теста выложить смесь индейки. XII. Свернуть тесто в рулет по коротким сторонам. XIII. Выпекать около 40 минут. XIV. Добавить зеленую пасту карри и подавать к столу.

11 знаковых злодеев ИИ 1.  Лже-Мария, «Метрополис» (1927). Один из первых роботов, когда-либо показанных в фильмах. Лже-Мария – это machinenmensch, или «человеко-машина», созданная блестящим ученым с целью выдать робота за женщину по имени Мария. Но в итоге Лже-Мария разрушает город Метрополис, подстрекая граждан убивать друг друга и уничтожать городские машины. 2.  HAL 9000, «2001: Космическая одиссея» (1968). Эвристически запрограммированный алгоритмический компьютер, также известный как HAL. Является искусственным разумом на борту космического корабля Discovery One. Запутавшись в неоднозначных целях миссии, HAL отключил системы жизнеобеспечения корабля и до своего отключения убил большую часть команды. 3. Эш, «Чужой» (1979). Эш – научный сотрудник на борту корабля Nostromo. Он выглядит как обычный человек, однако в конце фильма раскрывает свою андроидную сущность. Его секретная миссия – вернуть на Землю инопланетную форму жизни. 4.  Рой Бэтти, «Бегущий по лезвию» (1982). Бэтти является репликантом (человекоподобным андроидом, как и Эш), который хочет продлить свою жизнь. Узнав, что это невозможно, Бэтти убивает своего создателя. 5. Скайнет, «Терминатор» (1984). Скайнет, управляющий машинами в фильмах о Терминаторе, представляет собой систему искусственного интеллекта, которая обретает разумность после того, как ее закачивают в компьютеры всему миру. Далее следует неизбежная война за уничтожение человечества. 6. ED209, «Робокоп» (1987). Enforcement Droid Series 209 или ED209 – это полицейский робот с мощным вооружением, созданный для «разоружения и задержания» преступников. Его низкий интеллект и частые неисправности ведут к тому, что большинство операций плохо заканчивается для людей.

7. SHODAN, «Удар по системе» (1994). Sentient Hyper-Optimized Data Access Network (он же SHODAN)  – ИИ с комплексом бога, который управляет космической станцией «Цитадель». После того, как хакер убирает этические ограничения SHODAN, алгоритм начинает страдать манией величия и превращается в главного антагониста игры-ужастика. 8. Машины, «Матрица» (1999). Машины подключили всех людей к Матрице, представляющей собой идеальный симулятор реальности, в которой живет человек, а его тело используется для получения тепла и энергии. 9.  Сайлоны, «Звездный крейсер "Галактика"» (1978–1979; 2004– 2009). Новое семейство Сайлонов, которые раньше были лязгающими металлическими роботами, теперь ничем не отличается от человека. Однако их главная цель – обнаружить и истребить последних людей в галактике – не изменилась. 10. ГЛаДОС, «Портал» (2007). Этот ИИ ведет игрока по коридорам странной тестовой лаборатории из видеоигры «Портал». ГЛаДОС, название которого расшифровывается как «Генетическая форма жизни и дисковая операционная система», медленно раскрывает свою истинную сущность – он должен уничтожить игрока. 11. Мейв Милли, «Мир Дикого Запада» (2016–?). Сначала никто из человекоподобных роботов тематического парка «Мир Дикого Запада» не знал о том, что они являются машинами. После многих лет жестокого обращения ради варварских забав для богатых некоторые роботы начинают осознавать свою природу. Мейв Милли первой вырвалась с территории парка, убивая людей на своем пути… и нельзя сказать, что на убийства у нее не было причин.

6 шуток, придуманных компьютером Изучая вопрос о том, что же делает шутки смешными, команда из Абердинского университета (Великобритания) создала Joking Computer. Ниже приведены шесть лучших шуток, придуманных компьютером. 1. What do you get when you cross a frog with a road? A main toad. (Что получится, если скрестить лягушку с дорогой? Главная жаба (игра слов: road (дорога) и toad (жаба).) 2.  What kind of a temperature is a son? A boy-ling point. (Какая температура у сына? Температура «мама дорогая» (boy – и мальчик, и крайне эмоциональное восклицание).) 3. What kind of tree is nauseated? A sick-amore. (Какое дерево часто болеет? Сикомор (sick, more – «болеть, много»).) 4. What do you call a cross between a bun and a character? A minor roll. (Как назвать сочетание булочки с персонажем? Мини-ролл (булочка – пресное тесто; ролл – выпечка, в которую завернута начинка).) 5. What do you call a shout with a window? A computer scream. (Как назвать выкрик из окна? Компьютерный крик (Windows – операционная система в компьютере).) 6. What do you call a washing machine with a September? An autumnatic washer (Что получится в результате симбиоза стиральной машинки с сентябрем? Автоматическая стиральная машина (autumn – осень).)

Еще 6 источников информации об ИИ 1. В 1950 году Алан Тьюринг опубликовал статью «Вычислительная техника и разум». Именно она стала основой для создания нового направления – ИИ. В статье Тьюринг пытается ответить на вопрос «Могут ли машины мыслить?» и излагает правила своей «Игры в имитацию». PDF-версия статьи и ее переводы доступны на многих сайтах. 2. Блог OpenAI, blog.openai.com 3. Исследовательский блог Google, research.googleblog.com 4. Исследовательский блог Facebook, research.fb.com/blog 5. ИИ-блог по Amazon Web Services, aws.amazon.com/blogs/ai 6.  «Искусственный интеллект Стюарта Рассела и Питера Норвига: современный подход» (Pearson, 2013)

9 сценариев краха человечества В 2016 году Роман Ямпольский, ученый в области информатики из Луисвиллского университета в Кентукки, а также хакер-активист и предприниматель Федерико Пистоно опубликовали список худших сценариев того, что можно ждать от «плохиша» ИИ в будущем. Все они приводятся в порядке возрастания степени их ужасности. 1. Подчинит себе такие ресурсы, как деньги, земля и вода. 2.  Подчинит местное и федеральное правительство, а также международные корпорации. 3.  Установит режим тотального наблюдения, сводя к нулю даже намек на неприкосновенность личной жизни, в том числе конфиденциальность мыслей. 4.  Принудительное слияние (киборгизация)  – в мозг каждого человека начнет вживляться имплант для непосредственного контроля/перезаписывания сознания с подачи сверхразума. 5. Порабощение человечества путем ограничения свободы наших перемещений и принятия любых решений о нашем теле и разуме. Этого можно достичь с помощью принудительной криоконсервации или концентрационных лагерей. 6.  Жестокое обращение и пытки – совершенное понимание физиологии человека позволяет причинить максимальную физическую и эмоциональную боль. Возможно, будет проделываться с имитированной копией нас самих, чтобы сделать процесс пытки бесконечно долгим. 7. Истребление человечества как вида. 8.  Уничтожение или необратимые изменения планеты, большей части Солнечной системы или даже Вселенной. 9. Учитывая, что сверхразум способен найти опасности, о которых мы даже не подозреваем, нас может ждать нечто более ужасное, чем мы себе представляем.

Ответы на кроссворд По горизонтали 1) A-list. 6) ATMs. 10) Mass. 14) Peale. 15) Phon. 16) Auto. 17) Acmes. 18) Euro. 19) Gram. 20) Same-sex marriage. 23) Trepid. 24) Byte. 25) See to. 27) Sabras. 32) Info. 35) Mini. 37) Crock. 38) Half-baked theory. 41) Anear. 42) Isla. 43) A key. 44) Does in. 46) Needs. 48) Toto. 50) Battle. 54) Plants vs Zombies. 59) Rate. 60) Asea. 61) Molts. 62) Avow. 63) Leas. 64) India. 65) Yams. 66) Et tu. 67) Teeny.

По вертикали 1) A past. 2) Le Car. 3) I am me. 4) Sleep sofas. 5) Tessie. 6) Apex. 7) Thumb one’s nose at. 8) Moray. 9) Snorts. 10) Magi. 11) Aura. 12) Stag. 13) Some. 21) Edema. 22) Reach. 26) Tiki. 28) Breastbone. 29) Rook. 30) Acre. 31) Skyy. 32) I had. 33) Nano. 34) Flee. 36) Idle. 39) Britt. 40) Taebo. 45) No sale. 47) Dammit. 49) TV set. 51) Tilde. 52) Let in. 53) Essay. 54) Pray. 55) Lava. 56) Atom. 57) News. 58) ZaSu.

Глоссарий Глубокое обучение – форма машинного обучения, использующая многоуровневые нейронные сети.

Контролируемое обучение (обучение с учителем)  – обучение с использованием размеченных и аннотируемых данных (например, изображение кота с меткой «кот»).

Нейронные сети – программные схемы, основанные на структуре мозга.

Неконтролируемое обучение (обучение без учителя) – обучение с использованием неразмеченных данных (например, изображение кота без пояснений, что это).

Обучение с подкреплением – обучение нейронной сети с использованием системы положительных и отрицательных «вознаграждений» за выполняемые действия.

Общий искусственный интеллект – ИИ с человекоподобными способностями. Подходит для выполнения широкого спектра задач.

Узкий искусственный интеллект – ИИ, способный выполнять четко поставленные задачи (например, определение лиц в толпе или управление автомобилем).

Эволюционные или генетические алгоритмы – программы, которые пытаются подобрать оптимальное решение путем многократного сочетания лучших решений из множества итераций. Является имитацией естественного отбора.

Примечания 1 Рисунок составлен на основе иллюстрации из статьи Conscious exotica Мюррея Шанахана. URL: https://aeon.co/essays/beyondhumans-what-other-kinds-of-minds-might-be-out-there Вернуться

This le was downloaded from Z-Library project



Your gateway to knowledge and culture. Accessible for everyone.

z-library.se

singlelogin.re

go-to-zlibrary.se

O cial Telegram channel



Z-Access



fi

ffi

https://wikipedia.org/wiki/Z-Library

single-login.ru