Виталик Бутерин предупреждает о возможном появлении суперумного ИИ через шесть лет
Соучредитель Ethereum Виталик Бутерин выразил опасения по поводу быстрого развития искусственного интеллекта (ИИ), предупредив, что суперинтеллектуальный ИИ может появиться раньше, чем ожидается. Он подчеркивает необходимость срочных стратегий для противодействия потенциальным рискам, сосредоточив внимание на "оборонительном ускорении", чтобы обеспечить ответственное использование технологий ИИ.
В блоге Бутерин изложил предложения по предотвращению вредных разработок в области ИИ. Он выступает за децентрализованные системы ИИ, тесно связанные с человеческим принятием решений, с целью уменьшить риск злоупотреблений, особенно со стороны военных сил. Он упоминает использование ИИ в войне, например, в Украине и Газе, и предупреждает, что военные исключения в регулировании ИИ могут представлять значительные угрозы.
Бутерин оценивает, что искусственный общий интеллект (AGI) может появиться всего через три года, а суперинтеллект — через три года после этого. Он подчеркивает, что человечество должно активно замедлять вредные разработки наряду с ускорением полезных достижений, так как неконтролируемый ИИ может привести к катастрофическим последствиям, включая вымирание человечества.
Чтобы справиться с этими рисками, Бутерин предлагает несколько мер. Он призывает установить правила ответственности, чтобы привлечь пользователей к ответственности за использование систем ИИ, утверждая, что конечные пользователи в конечном итоге решают, как применять технологии. Если меры ответственности окажутся недостаточными, он предлагает механизмы "мягкой паузы" для временного замедления опасного развития ИИ, что может снизить глобальную вычислительную мощность на 90-99% в течение одного-двух лет в критические периоды для подготовки к возникающим вызовам.
Еще одно важное предложение касается контроля аппаратного обеспечения ИИ. Бутерин предлагает интегрировать чипы в системы ИИ, которые требуют еженедельного разрешения от трех международных организаций, включая как минимум одну невоенную структуру, чтобы поддерживать глобальный контроль и предотвратить злоупотребления.
Несмотря на то, что он представил эти идеи, Бутерин признает, что его стратегии являются временными и несовершенными, но настаивает на необходимости немедленных действий для управления рисками, связанными с быстро развивающимися технологиями ИИ.
Предостережения Бутерина подчеркивают растущую озабоченность по поводу безопасности ИИ и необходимость глобального сотрудничества для решения этих актуальных проблем. Обеспечение контроля над ИИ со стороны человека является ключевым для минимизации катастрофических последствий, что потребует коллективных усилий и бдительности.