Экс-менеджер Google считает опасным использование ChatGPT из-за возможности слежки
Это экспериментальная технология, точность и безопасность которой неизвестны, заявила Мередит Уиттакер
ТОКИО, 12 апреля. /ТАСС/. Весь мир превратился в испытательную площадку для чат-бота на базе искусственного интеллекта (ИИ) ChatGPT, что может привести к обострению проблемы слежки и концентрации больших объемов данных в руках нескольких компаний. Такое мнение выразила в опубликованном в среду интервью японской газете Asahi бывший менеджер Google, президент компании Signal Foundation Мередит Уиттакер.
"Это экспериментальная технология, точность и безопасность которой неизвестны", - отметила она. По словам Уиттакер, ИИ, который собирает данные пользователей, по сути, представляет собой продолжение "бизнес-модели для слежки", которая монетизируется через механизм интернет-рекламы. "ИИ не является ни нейтральным, ни демократичным. В конечном итоге он создан для обслуживания их [крупных компаний] интересов", - добавила Уиттакер.
"Все население мира разрешено использовать в качестве испытательного стенда. С этической и моральной точек зрения должен быть более демократичный контроль. Сильный механизм регулирования конфиденциальности позволил бы перекрыть неконтролируемый поток данных. ИИ сам по себе сможет обеспечить свои собственные возможности наблюдения. Взаимосвязь между ИИ и средствами слежки грозит усилиться", - заключила она.
ChatGPT американской компании OpenAI был запущен в конце 2022 года. Сервис взаимодействует с пользователем в диалоговом режиме. Чат-бот может отвечать на дополнительные вопросы, признавать свои ошибки, оспаривать неверные предпосылки и отклонять неуместные запросы. Возможности сервиса привлекли пристальное общественное внимание. Новинка подверглась критике после того, как ее использовали студенты в разных странах для сдачи экзаменов и подготовки академических работ.
31 марта итальянский регулирующий орган распорядился временно ограничить использование чат-ботом личных данных пользователей в стране. Регулятор дал OpenAI 20 дней, чтобы отчитаться о принятых мерах. Правительство ФРГ также сообщило о возможности подобных ограничений в республике.