В законодательной попытке предотвратить неизбежный конец человечества от рук роботов-охотников-убийц президент США Джо Байден издал указ, устанавливающий новый набор стандартов, которые будут направлять развитие искусственного интеллекта. Приказ включает в себя требования «разработать стандарты, инструменты и тесты, которые помогут обеспечить безопасность, надежность и надежность систем ИИ», а также делиться соответствующими данными о моделях ИИ с правительством США.
Обеспокоенность по поводу потенциальных негативных последствий развития ИИ росла вместе с быстрым ростом самого развития ИИ. Сценарии Скайнет интересно рассматривать, но более насущной проблемой является использование искусственного интеллекта для создания высокореалистичных аудио- и видеоклипов, которые можно использовать в гнусных целях, как отметил сам Байден в недавней речи.
Президент Байден перед подписанием указа о введении мер безопасности в отношении искусственного интеллекта: «Благодаря искусственному интеллекту мошенники могут записать ваш голос за три секунды. Я посмотрел на одного из себя… Я сказал: «Когда, черт возьми, я это сказал?»» pic.twitter.com/GKACIVPjHa, 30 октября 2023 г.
Узнать больше
«Благодаря искусственному интеллекту мошенники могут записать ваш голос на три секунды: я посмотрел на одного из себя и сказал: «Когда, черт возьми, я это сказал?» — сказал Байден. «Серьезно, трехсекундная запись твоего голоса и создание достаточно хорошей имитации, чтобы обмануть… Я собирался сказать, обмануть твою семью, [but] ты сумасшедший.»
Новый указ обещает «самые решительные меры, когда-либо предпринимавшиеся для защиты американцев от потенциальных рисков, связанных с системами искусственного интеллекта», и он, безусловно, охватывает множество вопросов. Основные моменты включают в себя:
- Требовать от компаний, разрабатывающих системы искусственного интеллекта, «которые представляют серьезный риск для национальной безопасности, национальной экономической безопасности или национального общественного здравоохранения и безопасности», делиться результатами испытаний на безопасность и другими «критическими» данными с правительством США в соответствии с Законом об оборонном производстве. .
- Разработать набор стандартов, инструментов и тестов, которые будут определены и соблюдаться несколькими агентствами, включая Национальный институт стандартов и технологий, Министерство внутренней безопасности и Министерство энергетики, чтобы гарантировать, что системы искусственного интеллекта «безопасны, надежны и надежны». .»
- Разработать новые стандарты проверки биологического синтеза для защиты от риска использования ИИ для создания новых и опасных биологических материалов, о чем, честно говоря, я до сих пор не думал, так что спасибо вам за это.
- Установите «стандарты и лучшие практики для обнаружения контента, созданного искусственным интеллектом, и аутентификации официального контента» для защиты от мошенничества и распространения дезинформации.
Приказ также призывает к действиям по борьбе с «алгоритмической дискриминацией», что хорошо, хотя часть о «разработке передового опыта использования искусственного интеллекта при вынесении приговоров, условно-досрочном освобождении и испытательном сроке, освобождении и превентивном заключении, оценке рисков, наблюдении, прогнозировании преступлений» и прогнозирующая полицейская деятельность и судебно-медицинская экспертиза», возможно, на мой вкус, слишком уж «Отчет меньшинства». И, конечно же, существует план по продвижению и ускорению исследований ИИ в США посредством создания Национального ресурса исследований ИИ, который сделает соответствующую информацию более доступной для исследователей и студентов, а также за счет расширения грантов на исследования в различных областях, связанных с ИИ. к ИИ.
Байден также призвал Конгресс принять двухпартийные меры по обеспечению защиты конфиденциальности при обучении и использовании систем искусственного интеллекта. «Этот указ представляет собой смелое действие, но нам все равно нужно, чтобы Конгресс действовал», — сказал Байден в своей речи (через CNBC).
Распоряжение появилось в тот же день, когда страны G7 объявили о соглашении о руководящих принципах разработки ИИ и добровольном кодексе поведения для разработчиков в рамках так называемого Хиросимского процесса, созданного в мае «для содействия развитию передовых технологий». Системы искусственного интеллекта во всем мире. Эта инициатива является частью более широкого спектра международных дискуссий».
«Мы считаем, что наши совместные усилия в рамках Хиросимского процесса искусственного интеллекта будут способствовать созданию открытой и благоприятной среды, в которой безопасные, надежные и надежные системы искусственного интеллекта проектируются, разрабатываются, внедряются и используются для максимизации преимуществ технологии, одновременно снижая ее риски, для будущее, общее благо во всем мире, в том числе в развивающихся странах и странах с формирующейся рыночной экономикой, чтобы преодолеть цифровой разрыв и добиться охвата цифровыми технологиями», — заявили лидеры G7 в совместном заявлении.
Страны G7 также призвали разработчиков систем искусственного интеллекта соблюдать международный кодекс поведения и заявили, что первые страны, подписавшие такие руководящие принципы, будут объявлены «в ближайшем будущем».