5 ИЮН, 12:50 Обновлено 17:47

Эксперт считает преувеличенной опасность сильного ИИ для человечества

По словам академика Игоря Каляева, супермощный ИИ не сможет существовать не только без электричества, но и без воды

САНКТ-ПЕТЕРБУРГ, 5 июня. /ТАСС/. Опасность для человечества сильного искусственного интеллекта (ИИ), который некоторые эксперты преподносят как страшное оружие, способное поработить весь мир, сильно   преувеличена, поскольку при угрозе людям его просто можно отключить от источника электроэнергии или лишить расходных запчастей, без которых он работать не сможет, сказал ТАСС в рамках ПМЭФ один из ведущих отечественных и мировых специалистов в области компьютерных технологий, академик Российской академии наук Игорь Каляев.

"Как показывает история, в том числе и современная, побеждает не тот, кто обладает супер умным и высокотехнологичным оружием, а тот, кто обладает простыми и дешевыми средствами поражения, причем в массовом количестве, кроме того, может выживать и действовать при отсутствии всех благ современной цивилизации. Вспомните, как гунны победили Римскую империю, Вьетнам победил США и так далее. Поэтому и сильный ИИ вовсе не является тем супероружием, с помощью которого можно завоевать весь мир. Если сильный искусственный интеллект, появления которого сейчас многие боятся, будет превращаться в угрозу человечеству, его просто можно отключить от источников электроэнергии, что можно сделать совершенно разными способами, после чего он превратится просто в груду металлолома", - сказал он ТАСС.

По словам академика Каляева, супермощный ИИ не сможет существовать не только без электричества, но и без воды, которая охлаждает суперкомпьютер, масла, которое смазывает вентиляторы, проводов, через которые он подключен к интернету.

Ранее глава офиса Всемирной организации здравоохранения в России Батыр Бердыклычев заявил на ПМЭФ, что доверять искусственному интеллекту жизненно важные вопросы в области здравоохранения небезопасно, он также не может проявлять эмпатию.

Эксперты про опасность ИИ

Несколько ведущих мировых экспертов в области цифровых технологий на протяжении последних лет высказывают опасения, что развитие сильного ИИ может привести к серьезным проблемам для людей, такой искусственный интеллект способен стать угрозой существования человечества.

В частности, американский миллиардер Илон Маск в апреле предупредил об опасности обучения искусственного интеллекта политкорректности, указав, что подобный ИИ вместо генерации толерантных изображений мог бы "воплотить их в реальность, вероятно, чтобы убить миллионы людей и достичь целей разнообразия".

Агентство Bloomberg в среду опубликовало слова бывшего американского разведчика Эдварда Сноудена, который заявил, что правительства и крупные корпорации пытаются взять под свой контроль технологии искусственного интеллекта, но их действия едва ли увенчаются успехом.

Сноуден предупредил, что представители больших корпораций могут попытаться внедрять свои взгляды и политику в "мощные модели [ИИ] и навязывать их". Вместе с тем он считает, что попытки поставить ИИ под свой контроль не будут иметь успеха из-за "слишком быстрого развития" этой технологии, добавляет Bloomberg.

О слабом и сильном ИИ

В научном сообществе принято разделять искусственный интеллект на слабый и сильный. Эти термины не связаны с мощностью или сложностью алгоритмов, а скорее с функционалом и возможностями ИИ.

Слабый искусственный интеллект (Weak AI) - это тип ИИ, предназначенный для выполнения конкретных задач и функций. Он может быть использован для обработки данных, прогнозирования, распознавания образов и других целей. Слабый ИИ широко применяется в различных областях, таких как медицина, финансы, транспорт, создание текстов и иллюстраций, написание IT-кода.

Примерами слабого искусственного интеллекта являются ChatGPT от OpenAI и YandexGPT, которые основаны на технологии нейросетей. Слабый AI ограничен в своих возможностях и не способен к самостоятельному обучению и адаптации. Он работает на основе алгоритмов и правил, заданных разработчиками.

Сильный (или общий) искусственный интеллект - это гипотетический вид ИИ, который способен к самостоятельному мышлению, обучению и адаптации.

В отличие от слабого искусственного интеллекта, сильный ИИ может сам ставить себе задачи, решать их и делать выводы. Это вызывает опасения у многих экспертов, ведь невозможно предугадать, какие цели поставит себе сильный ИИ, и к каким последствиям это приведет, в том числе для всего человечества. Пока что сильный искусственный интеллект не создан, но ученые продолжают исследования в этой области.

Читать на tass.ru
Теги