Лучше не знать, о чем мы думаем
Принято считать, что будущее человечества однажды окажется под угрозой из-за развития технологий искусственного интеллекта (ИИ), чьим возможным воплощением станут злобные роботы. Но, вступая в третье десятилетие нового тысячелетия, нам следует опасаться не сингулярности, а значительно более старого врага – самих себя.
Стоит меньше размышлять о «Терминаторе» и больше – о фильме «Особое мнение».
Мы быстрыми темпами разрабатываем новые технологии буквального чтения мыслей, не имея какой-либо системы контроля над ними. Представьте себе на мгновение ситуацию, что в результате эволюции люди научились бы читать мысли друг друга. К чему бы это привело?
Для ответа на этот вопрос нужно вспомнить о ваших собственных внутренних диалогах. Можно уверенно предположить, что у каждого из нас бывают мысли, которые шокировали бы даже (или прежде всего) самых близких нам людей. А как бы отреагировали те люди, которые, может быть, не желают нам добра, на возможность послушать эмоциональную брань, иногда проносящуюся у нас в голове? Будут ли они достаточно разумны, чтобы проигнорировать её, понимая, что это просто всплеск эмоций? Или кто-нибудь решит воспользоваться тем, что ему удалось узнать наши мысли, которые нам хотелось бы оставить в тайне?
Эволюция не дала нам возможности читать мысли друг друга, потому что подобные способности, вероятно, привели бы к прекращению нашего существования как вида. Напротив, наши древние предки организовались в группы ради самозащиты, и в результате большинство из нас научилось, что именно можно говорить, а что лучше оставить невысказанным. Со временем этот навык стал очень развитой особенностью человека, позволившей формироваться обществам, расти городам и даже набиваться сотням испытывающих стресс людей в летающую трубу, при этом, как правило, не нападая на своих попутчиков. Речь идёт о ключевом компоненте так называемого эмоционального интеллекта (EQ).
Тем не менее, сегодня технологии начинают фундаментальным образом угрожать этой необходимой эволюционной адаптации человека.
Первым этапом стали социальные сети. Эта тенденция обнаружилась сначала в Facebook, когда российское манипулирование данной интернет-платформой повлияло на президентские выборы в США в 2016 году. И она усиливается в Twitter, который даёт пользователям возможность выражать мимолётные мысли или эмоции, которыми можно поделиться с миллионами людей. Только представьте себе, как мучилось руководство КНДР, когда ему пришлось интерпретировать твит президента Дональда Трампа о ядерном «огне и ярости». Была ли это реальная угроза со стороны нового и непоследовательного лидера США, или же просто сиюминутный приступ экзальтации, неотфильтрованная ментальная вспышка, которую лучше вообще проигнорировать? В былые дни биполярного мира двух супердержав между США и СССР была установлена знаменитая телефонная горячая линия, которая позволяла прояснить намерения каждой из сторон с целью не допустить, чтобы какое-либо недопонимание привело к исчезновению мира в облаке ядерного взрыва.
А сегодня в нашем намного более сложном многополярном мире, полном асимметричных угроз, социальные сети предлагают всем желающим гигантский, никем не редактируемый мегафон. Социальные сети превратились в инструмент, который может ослабить демократию. Однако они являются всего лишь детской игрой в сравнении с тем, к чему мы сегодня начинаем быстро приближаться.
Самые разные компании – от стартапов до транснациональных конгломератов – в последнее время начали объявлять о поразительных инновациях, позволяющих читать мысли. Компания Илона Маска Neuralink пытается получить разрешение на тестирование на людях устройства, имплантируемого в мозг пользователей с целью читать их мысли. Компания Nissan разработала технологию Brain-to-Vehicle, которая позволяет машине воспринимать инструкции из мозга водителя. Facebook финансирует исследования учёных, которые с помощью мозговых волн распознают речь. В статье, опубликованной недавно в научном журнале Nature, объясняется, как ИИ может генерировать речь с помощью анализа сигналов мозга. А учёные Колумбийского университета разработали технологию, способную анализировать мозговую активность и определять, чего именно хочет пользователь, а также преобразовывать эти пожелания в звуковые сигналы с помощью синтезатора.
Конечно, подобные достижения могут принести реальную пользу, в частности, помочь людям, страдающим от паралича или неврологических заболеваний. Уже сегодня используются первые формы нейропротезирования, например, кохлеарные импланты, дающие возможность слышать глухим людям, а также многообещающие устройства, позволяющие видеть слепым.
Но потенциально существуют и иные, более мрачные способы применения этих технологий. Например, рекламодатели могут оттачивать свои предложения на микроуровне, ориентируясь на невысказанные пожелания людей, или работодатели могут следить за сотрудниками, а полицейские могут контролировать и отслеживать вероятные криминальные намерения граждан в массовых масштабах, подобно тому, как сегодня за жителями Лондона следят через камеры видеонаблюдения. Одним из первых тревожных сигналов стала история с ToTok, популярным сетевым приложением, которое, как недавно выяснилось, правительство Объединённых Арабских Эмиратов использовало для шпионажа за пользователями. А что может произойти, если устройства чтения мыслей взломают хакеры? Трудно себе представить какую-либо иную сферу, которая больше всего нуждается в защите конфиденциальности данных, чем мозг человека.
Маск уверен, что мозговые интерфейсы понадобятся людям, чтобы не отстать от искусственного интеллекта. Тем самым, мы возвращаемся к научно-фантастическому роману ужасов «Особое мнение» Филипа Дика (на его основе в 2002 году был снят известный фильм). Представьте себе те мириады сложнейших этических, правовых и социальных последствий ситуации, когда полицейские предотвращают преступление до того, как оно совершилось, потому что он или она способны «оценить» вероятные намерения человека, прочитав его мозговые волны. Когда именно совершается преступление? Когда о нём подумали? Когда начинаются действия, воплощающие мысли в реальность? Когда на жертву направлен пистолет? Когда палец сжимает спусковой крючок?
Одна из главных проблем с технологическими инновациями в том, что обществу обычно требуется много времени, чтобы угнаться за ними, осознать широкие последствия возможного использования и злоупотребления новыми технологиями, а также установить необходимые правовые и нормативные рамки для их регулирования.
Во втором десятилетии нынешнего тысячелетия социальные сети превратились из инструмента, связывающего людей, в платформу, обладающую колоссальными возможностями для распространения лжи и манипулирования выборами. Сегодня общество пытается понять, как именно можно воспользоваться всеми преимуществами этой инновации, но при этом ограничить потенциал для злоупотреблений ею. Но, наверное, ещё до того, как мы решим эту проблему, третье десятилетие этого тысячелетия поставит перед нами ещё более трудные вопросы, связанные с технологиями, чьи последствия будут намного серьёзней.
Александр Фридман – инвестор, бывший генеральный директор GAM Investments, директор по инвестициям банка UBS, финансовый директор Фонда Билла и Мелинды Гейтс, участник программы White House Fellow.
Copyright: Project Syndicate, 2019.
www.project-syndicate.org