16 ноября 2018, 15:05

Исследование: 39% потребителей не доверяют искусственному интеллекту

Здание компании Salesforce в Сан-Франциско. AP Photo/ Eric Risberg
Здание компании Salesforce в Сан-Франциско

Пользователей беспокоят степень защиты личных данных и принимаемые машинами решения

Kомпания Salesforce, занимающаяся исследованиями рынков, провела опрос среди потребителей электронных устройств, один из пунктов которого касался оценки влияния искусственного интеллекта (ИИ) на общество. В то время как 61% опрошенных считает его положительным, 39% участников более сдержанны в своих оценках. Об исследовании сообщает онлайн-журнал The Next Web.

Дальнейшая судьба ИИ, по мнению автора статьи Анны Йоханссон, зависит от степени доверия пользователей. И задача компаний, встраивающих технологию в свой продукт, - его повысить, развеяв предубеждения и показав, как умные машины меняют и могут изменить жизнь людей в лучшую сторону. Доверие пользователей зависит от областей применения. Если автомобили с автопилотом в целом поддерживает всего 46% респондентов, то умным почтовым спам-фильтрам или программам, предотвращающим подделку кредитных карточек, доверяют уже 80%.

"Если посмотреть, как много людей планируют свое расписание, звонки и встречи при помощи голосовых помощников в смартфонах, то уровень доверия показывает, что машинный интеллект и технологии стали более надежными", - отмечает Хоссейн Рахнама, основатель компании Flybits, предлагающей решения, которые умеют анализировать поведение пользователей в цифровой среде, помогая улучшать их жизнь в физическом мире.

По результатам другого исследования, проведенного компанией-разработчиком систем управления взаимоотношениями с клиентами Pega, треть потребителей во всем мире уверена, что компьютерная программа никогда не сможет так хорошо знать вкусы и предпочтения людей, как сами люди. Но при этом 68% пользователей готовы чаще использовать возможности ИИ, если те позволят им сэкономить время и деньги. Важным аспектом доверия к технологии в статье назван уровень защиты персональных данных пользователей, что особенно актуально на фоне скандалов с утечкой и продажей личных данных третьим лицам.

Второй важный фактор, упомянутый в статье, - это уровень открытости компаний. Высокий уровень секретности воздвигает стену между ними и потребителями, становясь почвой для домыслов. Так, например, покупатель автомобиля с автопилотом должен знать, чью жизнь машина будет в первую очередь защищать в аварийной ситуации: водителю или пешеходам, чтобы на основе этой информации решение мог принять уже сам водитель.

Среди тех, кто публично высказывался об опасности бесконтрольного развития ИИ - такие лидеры общественного мнения, как физик Стивен Хокинг и глава SpaceX Илон Маск.

"Я считаю, что ИИ во многом более опасен, чем ядерные боеголовки, но это не означает, что каждому позволительно создавать ядерное оружие", - высказался Илон Маск. Положительно относясь к применению машинного обучения в конкретных ситуациях (например, при разработке самоуправляемых автомобилей), предприниматель опасается машинного обучения как явления, так как его технологии имеют "в миллион раз больше вычислительной мощности" по сравнению с "узкоспециализированным" ИИ".

"Думаю, нет принципиальной разницы в том, как могут развиваться биологический мозг и искусственный интеллект. А значит, в теории, могут воспроизвести человеческий интеллект - и превзойти его", - заявил Стивен Хокинг, отметив, что, научившись самостоятельно принимать решения, такой ИИ способен "положить конец человеческому роду".

Между тем, именно умная система подбора слов, обучавшаяся на статьях, лекциях и книгах Хокинга, позволила ученому общаться с внешним миром после того, как амиотрофический склероз и последствия воспаления легких лишили его возможности самостоятельно писать и говорить. Взаимодействовать с компьютером Хокинг мог с помощью одной лицевой мышцы.

Материал предоставлен проектом +1.