Лаборатории искусственного интеллекта вышли из-под контроля - ученые

31.03.23 - 09:23

first_image Ученые считают, что системы искусственного интеллекта следует разрабатывать только тогда, когда есть уверенность, что их эффекты будут положительными, а риски управляемыми.

 

Системы искусственного интеллекта могут представлять серьезную опасность для общества. Об этом говорится на сайте некоммерческой организации Future of Life Institute.

Поэтому генеральный директор SpaceX, Tesla и Twitter Илон Маск, соучредитель Apple Стив Возняк и еще 1100 профессоров, инженеров и исследователей призывают приостановить эксперименты.

Авторы считают, что обучение и испытание более мощных систем искусственного интеллекта, чем GPT-4, должны быть прекращены по меньшей мере на полгода, пока не появятся общие протоколы безопасности. Если такую паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.

Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые тщательно проверяются и контролируются независимыми внешними экспертами.

"Нам следует спросить себя: должны ли мы позволить машинам наполнить наши информационные каналы пропагандой и ложью? Должны ли мы автоматизировать всю работу, включая приносящее удовольствие? Должны ли мы развивать бесчеловечные умы, которые в итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?" - говорится в письме.

Комментарииcomm.jpg

captcha code
Отправить