Атырау, 12 января 14:40
 ясноВ Атырау -2
$ 526.81
€ 542.72
₽ 5.16

Развитие искусственного интеллекта может привести к катастрофе, «сравнимой с ядерной». Так думает треть опрошенных экспертов в области ИИ

2 521 просмотр

Более чем треть исследователей в сфере искусственного интеллекта полагают, что его развитие может привести к катастрофе, «сравнимой с ядерной». Об этом свидетельствует опрос экспертов в области искусственного интеллекта, проведенный исследователями из трех американских университетов, который упоминается в большом отчете Стэнфордского университета относительно развития ИИ за 2023 год. Об этом пишет The Insider.

Согласно исследованию, 36% респондентов сочли правдоподобным то, что искусственный интеллект может стать причиной глобальной катастрофы. При этом 71% экспертов допускают возможность того, что развитие ИИ сможет привести к революционным изменениям в обществе, сравнимым по эффекту с Промышленной революцией.

При этом вопрос относительно «катастрофы, сравнимой с ядерной» вызвал критику научного сообщества. Большинство из тех, кто согласился с тем, что искусственный интеллект мог бы стать ее причиной, предпочли бы более мягкую формулировку.

Также эксперты указали на то, что ИИ не способен принимать собственные решения, и все его действия являются отсылками к базам данных человеческого опыта, на основе которых обучаются современные языковые модели, подобные ChatGPT.

В марте один из основателей Apple Стив Возняк, предприниматель Илон Маск и еще более тысячи бизнесменов и экспертов подписали открытое письмо. В нем содержится призыв ввести всемирный запрет на обучение систем ИИ сроком на полгода.

Тогда же известный исследователь в области искусственного интеллекта Элиезер Юдковский опубликовал в журнале Time колонку, в которой призывал не просто приостановить, а полностью запретить дальнейшее обучение больших языковых моделей. В ней он также предлагает бомбить дата-центры в странах, которые нарушат это соглашение.

14 апреля 2023, 22:23

Нашли ошибку? Выделите её мышью и нажмите Ctrl + Enter.

Есть, чем поделиться по теме этой статьи? Расскажите нам. Присылайте ваши новости и видео на наш Телеграм и на editor@azh.kz.