Ваш регион:
^
Лента новостей
Разделы сайта
Все новости
Новости Поиск Темы
ОК
Применить фильтр
Вы можете фильтровать ленту,
выбирая только интересные
вам разделы.
Идёт загрузка

Искусственный интеллект не применим в сфере филантропии

10 мая, 19:05 UTC+3

По мнению британского эксперта, технология может усугубить неоколониальные тенденции

Поделиться
Материал из 1 страницы
© pixabay.com/stux

Используя искусственный интеллект (ИИ), гуманитарные организации могут усугубить неоколониальные тенденции (изначально термин, обозначающий вмешательство развитых стран в дела развивающихся - прим. "+1"), считает преподаватель творческих и социальных вычислений в Голдсмитском колледже при Лондонском университете Дэн МакКилан. Такое мнение эксперт выразил в материале, опубликованном на портале The Conversation.

Как пишет специалист, искусственный интеллект используется для анализа эхокардиограмм (метод исследования изменений сердца), чтобы предугадывать заболевание сердца; на рабочих местах, чтобы понять, собирается ли уйти сотрудник, для анализа социальных медиа, чтобы выявить первые признаки депрессии или суицидальных настроений. "Единственная сфера, которой пока не коснулся ИИ, - гуманитарная. Но там его тоже будут применять. Почему? Потому что ИИ позволит ответить на центральные вопросы: кого мы должны спасать и как быть эффективным при масштабной работе?", - размышляет МакКилан.

Как считает эксперт, машинное обучение и ИИ помогают понять масштаб той или иной задачи и дают обоснованные прогнозы. В то же время технология может усугубить существующие проблемы и создаст новые. Во-первых, машинное обучение может усилить дискриминацию, так как при анализе зачастую использует данные из социальных сетей, пользователи которых зачастую предвзяты. Во-вторых, алгоритм принимает решение на основе корреляций (статистическая взаимосвязь двух или более случайных величин), а не исходя из реально существующих причин. Работа ИИ непрозрачна и сопровождается алгоритмическими искажениями.

"Все данные могут быть обработаны при помощи алгоритмов машинного обучения. Все, что может быть сведено к числам и проанализировано, может быть использовано для создания модели. Уравнения не знают или не думают о том, подставляют ли в них цифры от продаж Amazon или жертв землетрясения", - констатирует МакКилан.

Специалист обратил внимание, что нейтральность и универсальность алгоритмов утверждает превосходство абстрактных знаний. "Модели, создаваемые машинным обучением, сложно соотносить с человеческими умозаключениями. Почему ИИ назвал этого человека как неподходящего для условно-досрочного освобождения? Что показывает конкретная модель? Мы не можем сказать: непрозрачность в корне самого метода. Технология не дополняет действия человека, а искажает их", - заметил эксперт.

По мнению МакКилана, машинное обучение и ИИ пока не пригодны для использования в гуманитарной сфере, так как посредством алгоритмического искажения будут усиливать "и без того глубоко неоколониальные и неолиберальные тенденции гуманитарных учреждений".

Материал предоставлен проектом "+1".

Показать еще
Поделиться
Новости smi2.ru
Новости smi2.ru
Загрузка...
Реклама
Новости партнеров
Реклама
Читайте
ТАСС VK
Много новостей? Мы собрали главные в нашей расссылке!