Герман Греф: люди не сталкивались с технологией, претендующей на замену роли человека
На Киностудии имени Горького выходит восьмисерийный научно-популярный сериал об искусственном интеллекте. Премьера приурочена к 180-летию Сбербанка и Международной конференции по искусственному интеллекту и анализу данных AI Journey 2021, которую банк проводит онлайн 10–12 ноября. Экспертом в первой серии, которая называется "ИИнтеллект. Начало", выступил глава "Сбера" Герман Греф. В беседе с журналистом ТАСС Иваном Сурвилло он рассказал о "третьей стадии" своего восприятия искусственного интеллекта, о скорости социальных трансформаций, которую привносит технический прогресс и развитие ИИ, об ответственности человека и о принципе "не спешить и не навредить".
— Герман Оскарович, мне 22 года, и я родился в мире уже с ИИ. Я не помню мир без гаджетов и технологий. А вы — помните. Как один из визионеров ИИ в России можете оценить скачок, который произошел за последние 30 лет?
— Я не готов давать объективную оценку. Мне 57 лет, и я родился в мире, в котором не было никаких гаджетов. Я хорошо помню 2007 год, когда появился первый айфон и первый айпад. У меня тогда возникло стойкое ощущение, что мир начнет очень серьезно меняться. Я отложил компьютер как основное средство производства, и с этого момента моими основными техническими инструментами стали телефон и айпад. Компьютеры у меня есть, но 90% времени я работаю на мобильных гаджетах.
На мой взгляд, мы сейчас переживаем одну из самых радикальных трансформаций за всю историю человечества. Ее ключевая особенность — в скорости. Главное слово сегодня, которое меняет нашу с вами жизнь, — "технологии". Внутри этих технологий главная технология — технология искусственного интеллекта.
Искусственный интеллект привносит еще большую скорость в уже сформированный и очень быстро движущийся технологический прогресс. А мы с вами — люди — остались такими же. Мы биологически не изменились. Наши реакции остались теми же. Мы абсолютно не адаптированы к новой скорости. Я хочу слово "скорость" вычленить в качестве ключевого фактора. Мы с вами не готовы к таким быстрым изменениям
Дети и молодые люди, которые родились, как вы, Иван, в период времени уже с ИИ, значительно меньше испытывают дискомфорт, страх и тревогу перед новыми технологиями, чем люди старшего поколения, которым достаточно сложно приспособиться к абсолютно новому миру. Это же ведь не только гаджеты: меняется буквально полностью весь уклад жизни — социальный, экономический...
Меняется эмоциональная составляющая людей. Люди совершенно по-иному начинают контактировать или не контактировать друг с другом, и это все происходит с большой скоростью. Оказывается масса различных давлений на человеческую психику, и это рождает большое количество вопросов у людей по поводу будущего, неопределенности собственного будущего и того, как будет устроен мир в ближайшем будущем.
— Многое из фантастических фильмов или книг, которые вы читали в детстве, — уже реальность сегодня.
— Да. Наверное, самым главным предсказателем будущего был Азимов — "Я, робот". Вы знаете, говорят, что люди претворяют свои мечты или свое виденье будущего... Во многом это так и есть, ведь будущее в фантастических романах не рождается на пустом месте.
Писатели — очень талантливые люди, которые интуитивно видят, как будет развиваться та или иная технология. Они очень часто попадают в "десятку" с предсказанием того, как технология может быть развита. Они, конечно же, не в состоянии осмыслить всю сферу влияния технологии на человеческое общество, они дают иногда, может быть, самый абсурдный вариант развития ситуации. Но, к сожалению, даже самые абсурдные предсказания сбываются. В этом смысле фантастика — это обязательный атрибут для молодых людей, чтобы развивать свое понимание будущего, чтобы копировать то, что описано кем-то из фантастов.
Я очень много читал фантастики в детстве, много романов оказало воздействие на меня с точки зрения того, как я стал думать или как я иначе стал подходить к оценке тех или иных явлений или процессов.
— Что такое вообще искусственный интеллект?
— Во-первых, много критики среди специалистов в отношении самого определения "искусственный интеллект". Это ничего общего не имеет с определением "интеллект". Пока это все-таки алгоритм. На сегодняшний день это комбинация огромного количества методов и алгоритмов, позволяющих обучать машину определенным навыкам. Эти навыки пока имеют только специфический характер, в отличие от человека, который обладает генеральными навыками.
До совсем недавнего времени среди специалистов считалось неприличным обсуждать тему так называемого AGI (Artificial General Intelligence) — то есть общего искусственного интеллекта. Считалось, что это нерешаемая задача. Только буквально последние несколько лет среди крупных имен в области искусственного интеллекта появились адепты AGI и появились подходы к тому, как на сегодняшних существующих алгоритмах могут строиться AGI-трансформеры. Но я убежден, что искусственный интеллект переживет своих родоначальников и подходы, с которыми он начинал.
Скорее всего, будущее искусственного интеллекта будет лежать в симбиозе математических и биологических методов. Пока даже тяжело предсказать, как это может дальше развиваться. Но хочу оговориться, что существующие методы далеко не исчерпали свой потенциал. Я думаю, что мы увидим еще очень серьезное развитие навыков искусственного интеллекта: человекоподобных навыков и методов, которые открыты сегодня.
— Учитывая то, что вы говорили про симбиоз, про биологию, — похоже ли создание и обучение ИИ на создание и обучение человеческого мозга?
— Да, обучение как раз последней разработки позаимствовано из процесса обучения ребенка.
Если раньше обучение модели строилось на создании заранее сформированных алгоритмов человеком, то сейчас это попытка воспроизвести процесс обучения ребенка. Нет никаких строгих правил, никаких жестких навыков, никаких жестких алгоритмов — искусственный интеллект точно так же, как и ребенок, анализирует закономерности в процессах, точно так же начинает с нуля осваивать сам наиболее эффективный подход к своему обучению и развитию
В этом смысле ученые, которые работают с совершенствованием подходов искусственного интеллекта, своего рода тоже фантасты. Они смотрят на то, как что-то делает человек, и пытаются воспроизводить это на основе математических моделей.
— По образу и подобию.
— Ну в общем, да.
— На что сегодня способен ИИ?
— Есть два диаметрально разных подхода.
Одни адепты искусственного интеллекта говорят, что он сегодня уже очень развит и способен на многое, другие говорят, что это пока еще невозможно даже назвать каким-то подобием интеллекта, это пока что слаборазвитые алгоритмы.
На самом деле, если мы сегодня возьмем работу практически любых коммерческих или некоммерческих организаций, то мы увидим, что почти во всех уже используются те или иные методы искусственного интеллекта. Уже сегодня искусственный интеллект оказывает огромное влияние на человеческую жизнь.
Все продукты цифровые, которые вы потребляете, — не важно, что это: просмотр видео, новостей, покупка или чтение книг в интернете или потребление финансовых продуктов, — все они уже включают в себя в большей и большей степени продукты искусственного интеллекта. На сегодняшний день, на мой взгляд, влияние ИИ очень велико.
— Какой подход вам ближе?
— Я думаю, что в обоих подходах есть свои справедливые плюсы и минусы. Действительно, пока это ранняя эпоха в развитии искусственного интеллекта, если относиться к нему как к полноценному наполнению слова "искусственный интеллект". Но с другой стороны, даже на этой стадии развития ИИ оказывает очень серьезное влияние на развитие всего вокруг нас.
Я бы не упрощал то, с чем мы сегодня встретились: мы пережили первую промышленную революцию, вторую и так далее, в общем, переживем и это...
Вы знаете, мы никогда не сталкивались еще с такого рода технологиями. Мы никогда не сталкивались с технологией, которая претендует на замену роли человека. Ни паровоз, никакая индустриальная машина никогда не могла даже рассуждать о том, что она покушается на роль человека не только как грубой физической силы, но и на все остальные функции человека. В этом, на мой взгляд, радикальное отличие того явления, которое мы видим сегодня, от тех революций, которые мы пережили ранее.
Я не за то, чтобы впадать в какие-то страхи по этому поводу. Остановить этот процесс невозможно, а значит, его надо возглавлять и нужно развивать. Но я бы очень серьезно относился к тому, насколько эта технология отличается от всего того, что мы имели ранее. Важно внимательно провести оценку влияния ИИ на все сферы человеческой жизни и деятельности. С этим нужно быть очень аккуратным, здесь спешить нельзя
— Нужны ли тогда какие-то этические ограничения в сфере ИИ?
— На мой взгляд, сегодня этика искусственного интеллекта — одна из самых важных и проблемных зон, которая должна получить опережающее развитие. Долгое время мы не понимали, что происходит, а просто пытались догонять, пытались создавать саму технологию. Нам было интересно, к чему это приведет. Сегодня уже очевиден целый ряд в том числе и потенциально негативных последствий.
На мой взгляд, сейчас — самое время детальному, серьезному, взвешенному разговору, обсуждению и системной работе, чтобы регулировать этику искусственного интеллекта. Там огромный спектр вопросов, который должен быть детально изучен и положен в основу применения различных систем искусственного интеллекта.
ИИ — технология общедоступная. До недавнего времени вообще это была одна из самых открытых технологий в мире. Это хорошо, потому что дает возможность использования ее позитивных последствий во всех странах. Но, с другой стороны, это, конечно, очень серьезно усложняет процесс минимизации негативных последствий, которые при такой скорости и при таком мощном воздействии любая технология бы имела, и технология искусственного интеллекта не исключение.
— Тогда очень простой пример: я еду в беспилотном такси, оно проезжает на красный свет. Кто несет за это ответственность?
— Это один из нерешенных вопросов, которые сейчас стоят на повестке дня в беспилотном транспорте.
Искусственный интеллект не может нести ответственности. Отвечает тот, кто заложил в него правила. То есть человек. Ответственность может нести только человек
Это большая сфера для регулирования. Нужно понимать, что и в каких случаях является правонарушением или преступлением, а что и в каких случаях является неосторожностью или ситуацией, которую человек в принципе и не мог предусмотреть. Это очень большая, серьезная работа специалистов, которые занимаются нейросетями, правоведов, специалистов в области социальных наук, философов.
До того как беспилотники выйдут на дороги самостоятельно, необходимый комплекс этих вопросов должен быть решен и отрегулирован в нормативном порядке. Конечно же, по мере практики будут возникать все новые вопросы, но какой-то объем необходимых изначальных правил все-таки должен быть человеком издан до того, как начнется автономное применение этих систем.
— На чем должны базироваться эти правила? Заповеди или правила нравственности...
— Все то, что вы назвали. И заповеди, и правила нравственности, и действующее сегодня нормативное регулирование всех видов, потому что оно было наработано человеческой историей. Какие-то ситуации, конечно же, не будут помещаться в существующие сегодня правила поведения людей, но будет большая работа по выявлению этих пробелов и созданию специфического нового законодательства.
— Как вы лично пользуетесь ИИ в повседневной жизни?
— Каждый день, как только беру в руки любой гаджет. Там подборка новостей нашей внутренней системы. У нас работают системы искусственного интеллекта, которые задают приоритетность, начиная от задач в моем графике и заканчивая приоритетностью изучения мной тех вопросов, которые я получаю, скажем, по электронной почте.
Фактически с момента того, как я начинаю вести осознанный образ жизни, включается искусственный интеллект. Но даже бессознательную часть моего бытия тоже контролирует искусственный интеллект — у меня на руке кольцо, которое мониторит фазы сна и показывает, сколько часов я спал, сколько из них в фазе глубокого сна... Утром я смотрю на качество сна за ночь, и это очень часто совпадает с моими субъективными ощущениями.
Можно сказать, что искусственный интеллект сегодня уже сопровождает нас 24 часа в сутки
— В обществе есть дискуссия, что если рано давать пользоваться гаджетами и ИИ детям, то есть риск, что будущие поколения детей будут вырастать менее приспособленными к жизни. Как вам кажется, с какого возраста детям необходимо взаимодействовать с ИИ?
— Гаджеты — это вообще большая сфера неизученности.
Если говорить о непосредственном взаимодействии детей с гаджетами и с искусственным интеллектом, то до шести-семи лет нужно минимизировать эти контакты. Отвечаю исходя из нашего сегодняшнего понимания того, как процесс устроен.
В начальной школе этого уже избежать невозможно, и здесь нужны ограничения. Ограничения с точки зрения количества контактов и, самое главное, — качества контактов. Нужно отсматривать и разрешать только тот контент, который приемлем для детей, для их психики.
Начиная уже со средней школы контакты могут быть более регулярными, но контентный анализ должен быть, на мой взгляд, очень жестким. Сегодня, к сожалению, его нет. Дети уже в младших классах допущены к контенту, который даже для взрослых иногда очень тяжело переносим с точки зрения психического воздействия.
Я за строгий контроль контента, который попадет к детям. Это непростая задачка, потому что дети значительно более адаптированы, чем родители, учителя, и изоляция может привести к тому, что мы получим обратный эффект
Это очень серьезная тема, в которую тоже должны быть включены специалисты из очень разных сфер, чтобы все грамотно отрегулировать. Важно уйти от запретов и дозировать объем и, в первую очередь, содержание.
Сегодня отобрать гаджет у ребенка невозможно. Психологи говорят, что сформировалось цифровое "я" ребенка, и в этом цифровом "я" гаджет является его нативным органом. Насильственное лишение гаджета приводит к тому, что ребенок воспринимает это как потерю, как психологическую травму. Такая изоляция может быть значительно более вредна, чем контролируемое и дозированное использование гаджетов. Но, еще раз повторю, это очень серьезная тема. Я бы не брал на себя ответственность глубокого рассуждения об этом.
Мы сегодня точно находимся в ситуации, когда уже слабоприемлемо дальнейшее промедление. Сегодня самый популярный сериал на Netflix — "Игра в кальмара". Спросите у детей: кто его не видел? Я боюсь, что в популяции взрослых вы найдете значительно больше людей, чем среди школьников, причем школьников уже средних и младших классов, которые бы его не посмотрели. Несмотря на то что формально он размещен на Netflix и нужно иметь доступ к Netflix, дети умудряются находить этот контент и смотреть. Мои дети сознались, что они посмотрели все девять серий, и после этого я стал смотреть его.
Я посмотрел только несколько серий "Игры в кальмара" и смотрел через призму просмотра его детьми. Мне кажется, нужно очень серьезно думать, как такой взрослый контент не должен попадать детям. Талантливейший режиссер, талантливейшая работа, но я пришел к выводу, что это та сфера, которую мы должны в очень быстром порядке совместными усилиями регулировать.
Запись "кроме детей до 18 лет" смешит детей. Они все тотально имеют доступ к подобному контенту. Ограничение не должно быть только надписью. Нужно создавать механизмы, делать так, чтобы реально дети не получали доступ к подобному контенту. "Игра в кальмара" — далеко не самый неприемлемый контент, который можно обсуждать. Есть значительно более неприемлемый контент, который должен быть недоступен детям. Просто закрыт.
— Мне хочется сейчас спросить про ИИ и детей не Германа Оскаровича — визионера ИИ, а Германа Оскаровича — отца. Поделитесь личным опытом.
— Я, к сожалению, не исключение. Одному сыну, слава богу, еще шесть лет, он пока не интересуется таким контентом, но те, которые постарше, посмотрели "Игру в кальмара". Когда я им задал вопрос, где они посмотрели, — они посмеялись просто. 13-летняя и 15-летняя надо мной посмеялись и сказали: "Да ну, господи, это же элементарно, у нас вся школа посмотрела". Я почувствовал себя динозавром.
Опять же не хочу как-то заострять внимание на конкретном сериале, просто меня эта проблема волнует и как родителя, и как взрослого человека, и как человека, который в том числе производит контент. Мы серьезно обсуждали у себя в команде, как сделать так, чтобы контент не нес в себе только коммерческую составляющую. Количество просмотров и срок времяпрепровождения с контентом зрителя сегодня являются доминирующими в компаниях, производящих контент. Должны быть нормы, которые бы позволяли компаниям проводить самоконтроль.
И проверку на соответствие нормам должен взять тот же самый искусственный интеллект. Эти нормы должны быть созданы. Мы придумаем, как это проверять, как осуществлять доступ и так далее, мы это умеем. А вот создание этих норм — это, конечно же, серьезная работа и ученых, и законодателей.
— ИИ контролирует контент.
— Да, конечно, если вы имеете в виду техническую работу. Если иметь в виду интеллектуальную составляющую, моральную составляющую, то я не готов предсказывать далекое будущее, но, конечно же, хотелось бы, чтобы эта функция оставалась за людьми. Все-таки окончательное решение должно быть за людьми.
— Существует мнение, что в будущем ИИ будет делать простую рутинную работу. Что тогда в будущем призваны делать люди, если исходить из всеохватности ИИ? Надо ли специально учить людей "безделью", предохраняя их от внутренних склок и демонов?
— Знаете, это тоже очень серьезная тема. Но здесь нет несерьезных тем. Все, что мы с вами обсуждаем, — это очень серьезно, конечно.
Есть два страха, два обоснованных опасения, связанных с темой развития искусственного интеллекта. Первое — замена роботизированными системами человека и лишение человека источника дохода, рабочего места. Возникает вопрос армии безработных, которым нечего будет делать: нужен какой-то фиксированный доход и так далее... Что люди будут делать, когда они получат такое огромное количество свободного времени...
Я не адепт этого опасения. Я думаю, и сегодняшние исследования это показывают, что с помощью систем искусственного интеллекта рабочих мест будет создано значительно больше, чем сокращено. Если посмотреть на последний отчет World Economic Forum и компании McKinsey, то они видят сокращение в ближайшие годы примерно 55 млн рабочих мест и создание 95 млн рабочих мест.
Здесь выходит второе серьезное обоснованное опасение — структурная безработица. Мы знаем, что водителей в мире примерно 250–300 млн человек. Появление полностью автономного беспилотного транспорта создает армию безработных. Что делать водителям? Переучивать их в дата-сайентистов? Собственно, количество дата-сайентистов тоже уже начинает сокращаться, потому что появились модели AutoML (автоматическое машинное обучение — прим. ТАСС) — создание нейронных сетей.
Это очень серьезный вопрос — вопрос структурной безработицы. Он бы не был так страшен и серьезен, если бы, опять-таки, не главное слово — "скорость"
Человечество раньше сталкивалось с такого рода трансформациями, но в такой короткий промежуток времени этого еще не происходило. Полноценного ответа на этот вопрос нет. Но очевидно, что нужно создавать огромное количество онлайн- и офлайн-курсов обучения и переобучения тем новым специальностям, которые появляются.
Мы с вами видим сегодня, допустим, армию людей в доставке. На сегодняшний день это одна из самых востребованных и дефицитных специальностей, идет охота за людьми на рынке между различными компаниями. Искусственный интеллект порождает не только высокотехнологичные рабочие места, которые требуют большой образовательной базы, но и новые рабочие места, которые не требуют длительного и глубокого переобучения.
Мне кажется, на это должны быть направлены сегодняшние усилия общества — чтобы максимально создавать гибкость, готовить людей к этому, давать возможность быстро переобучаться и предоставлять широкий спектр возможностей, чтобы человек мог выбирать, что ему по душе. Но это серьезная тема, с которой нужно сегодня нам всем справиться.
— Какие специальности могут возникнуть благодаря ИИ?
— Вы знаете, есть атлас профессий будущего, который во многом носит эмпирический уже характер на основе сегодняшних технологий. Открыв его, вы увидите десятки потенциально новых специальностей. Многие из них уже начинают появляться на практике.
— Герман Оскарович, вы лично чего боитесь или опасаетесь в связи с развитием ИИ?
— Вы знаете, я бы это страхом не назвал, наверное… Когда появилась технология, у меня было такое беззаботное отношение к этому и хотелось максимально использовать ИИ в различных сферах того, что мы делаем. Это было очень интересно: освоение нового, такой сдвиг сознания происходил. Потом был период вовлечения и понимания того, что, оказывается, еще и здесь можно применять, и здесь, и здесь, и здесь. Потом мы сказали: "AI First", то есть вначале искусственный интеллект, а потом все остальное. В каждый процесс, в каждый продукт должен быть включен искусственный интеллект.
А вот третья стадия — понимание того, что ИИ — это очень серьезный, сложный инструмент, который подлежит очень серьезному регулированию. Лично я нахожусь на третьей. Мы фактически целый ряд вопросов уже с вами прошли: от этики применения и использования искусственного интеллекта и его разработки до использования искусственного интеллекта в системах образования, социальных системах, в здравоохранении, где уже встает вопрос доступности и конфиденциальности данных... Я сейчас на стадии озабоченности от осознания объемов той работы, которая предстоит, которая уже накопилась и которую предстоит быстро сделать. Это сегодняшнее мое состояние.
— Как вам кажется: может ли человечество правда создать этические кодексы и принять необходимые ограничения? Я просто думаю про Оппенгеймера и его изобретение, которое ограничили только после Нагасаки. Не хотелось бы, чтобы было похожее.
— К сожалению, наверное, будет в ИИ и так, и так. Это неизбежно.
Но чем больше мы будем сегодня об этом на серьезном уровне, экспертном уровне говорить и соединять практиков, ученых, законодателей, тех людей, кто является потребителями конечной услуги, чем больше мы будем серьезной, неэмоциональной абсолютно дискуссией вырабатывать правила и реализовывать их — тем меньше будет такого рода вещей, о которых вы сказали.
Совсем не хотелось бы иметь аналогии, которые бы заставляли в экстренном порядке регулировать какие-то сферы. Мы уже находимся в достаточно горячей сфере, ситуации осознания негативных последствий применения искусственного интеллекта. В этой части важно не опоздать, нужно спешить.
— Какого гаджета с ИИ сейчас не хватает вам?
— Я думаю, что все-таки те гаджеты, с которыми мы сегодня имеем дело, — это уже прошлое, они очень неудобны.
Одно из самых узких мест сегодня во взаимоотношениях человека и искусственного интеллекта — интерфейс. Мне очень неудобны как человеку с не очень хорошим зрением сложившиеся способы взаимодействия. Они отстают от методов искусственного интеллекта. Хардовое железо серьезно отстает от программного обеспечения. Думаю, что прорыв следующий должен быть в этой сфере. Идут попытки создания очков как значительно более удобного интерфейса.
Я не очень себе представляю процессы биологического вживления в себя каких-то чипов… Я, например, не готов ни предлагать такие решения, ни сам себе вживлять что-то. Мне кажется, что бесконтактное взаимодействие через считывание слабых сигналов головного мозга — за этим будущее.
Наверное, следующее поколение людей будет искать ответ в каких-то других отраслях. Но человеко-машинные системы физически для меня не очень приемлемы.
— Вы наверняка знакомы с термином "зловещая долина" — точка, в которой робот становится очень похожим на человека и в результате вызывает у человека отторжение. Возможно ли это на нашем веку?
— Конечно. Робототехника развивается очень быстро. Это уже не столько и не только искусственный интеллект, а большое количество сопряженных технологий, которые тоже будут развиваться с помощью искусственного интеллекта.
Создание человекоподобного робота сегодня, на мой взгляд, вполне уже решаемая задача. Я не уверен, что мы способны создать робота, которого будет невозможно отличить от человека. Пока, наверное, мы не находимся на этой стадии развития технологий. Но очень похожего на человека в ближайшие десятилетия мы увидим.
На мой взгляд, у теории зловещей долины есть большая составляющая, над которой стоит думать. Люди, по всем нашим исследованиям, очень хорошо относятся к роботам, пока это роботомашины. Чем ближе они к человекоподобию, тем меньше они вызывают симпатию современного человека. Я бы к этому относился с большим вниманием и серьезностью. На мой взгляд, здесь лучше опоздать немножко, но правильно выйти в процесс, чем поспешить и навредить.
Принцип "не навреди" сейчас, при таком темпе развития искусственного интеллекта и вообще технологий, на мой взгляд, является ключевым. Он сегодня не менее актуален, чем для врачей.
— Допустимо ли наделять ИИ эмоциями?
— Это значительно более сложная тема, чтобы односложно ответить. Сегодня создаются системы искусственного интеллекта, которые позволяют с высокой степенью точности распознавать эмоции человека. Нужно обсуждать, что вы вкладываете в термин "наделение искусственного интеллекта эмоциями".
Быстрый ответ — и да, и нет. Можно ли использовать систему искусственного интеллекта для распознания эмоций? На мой взгляд, да. От этого может быть много пользы. Могут ли такого рода системы нести потенциальный вред? Тоже да. Это нужно регулировать
Нужно ли в системы искусственного интеллекта закладывать эмпатию? Наверное, да. Если система искусственного интеллекта видит, что человек испытывает страх, может быть, она должна перестать взаимодействовать с человеком. Нужно ли, ну, бездумно наделять всеми человеческими эмоциями искусственный интеллект — нет, на мой взгляд, это очень опасно.
— Как вам кажется, что будет с ИИ в будущем, через 23 года?
— Он будет совсем другим. Есть много предсказателей на эту тему — тот же Рэй Курцвейл, с которым мы недавно встречались, выступал у нас. Он сделал прогноз до 2100 года с попыткой спрогнозировать, как будут развиваться технологии. Я бы не хотел повторяться. Над нами довлеют уже эти заданные рамки. Я вижу, как мы работаем с искусственным интеллектом, как уже пару раз происходил очень серьезный, радикальный разворот в том, что мы делали, когда нам казалось, что какие-то вещи уже все, исчерпаны до конца, а вдруг открывался совершенно новый горизонт…
Почему я сказал, что он будет совсем другим? Я вижу большую лимитированность исключительно комбинированных хард&софт-подходов для развития искусственного интеллекта. Будущее квантового компьютинга под большим вопросом пока, но оно открывает принципиально новые горизонты. И, конечно, биологические системы. Я думаю, эти две технологии могут создать абсолютно новое качество в развитии искусственного интеллекта.
Это абсолютно не отменяет те вещи, о которых мы с вами говорили в части этики использования искусственного интеллекта, понимания степени влияния его на социальную и все остальные стороны жизни человека и нахождения оптимального баланса в его регулировании с тем, чтобы не перерегулировать. Перерегулирование приведет к стагнации в развитии технологий и отставании страны, чего нам допустить нельзя. Наш президент сказал, что тот, кто будет владеть монопольно технологией искусственного интеллекта будущего, тот будет владеть миром. Это правда. Нам, конечно же, как стране, как нации нельзя отстать в этом процессе.
С другой стороны, принцип "не навреди" должен быть уложен в головах всех, кто занимается развитием искусственного интеллекта, его применением и регулированием. Нужно соединение этих людей и специалистов из области социальных наук. Пока еще недостаточно в эту тему включены специалисты гуманитарного крыла человеческой деятельности. Мне кажется, что это должно произойти в самый короткий период времени.
Главное — не спешить и не навредить.