Согласно последним указаниям Офиса менеджмента и бюджета США все федеральные агентства должны назначить старшего офицера и руководящие советы, которые будут контролировать все используемые внутри системы ИИ.
Агентства также обяжут подавать ежегодный отчет с перечнем всех систем искусственного интеллекта, которые они используют, связанных рисков и планов по их уменьшению.
«Мы приказали всем федеральным агентствам назначить руководителя ИИ с опытом, знаниями и полномочиями для надзора за всеми технологиями искусственного интеллекта, которые они имеют, для того, чтобы убедиться в ответственном использовании», — цитирует вице-президента Офиса менеджмента и бюджета Камалу Харрис сайт The Verge.
Отмечается, что главный офицер по ИИ, необязательно должен быть «политическим назначенцем», хотя в конце концов это будет зависеть от структуры агентства. Все руководящие советы должны быть созданы до лета 2024 года.
Эти указания расширяют ранее объявленную политику, изложенную в распоряжении администрации Байдена по искусственному интеллекту, которая требовала от федеральных агентств создать стандарты безопасности и увеличить количество ИИ-специалистов в правительстве.
Некоторые агентства взялись за найм еще до обнародования указаний: так, в феврале Минюст представил Джонатана Майера, как руководитель ИИ-подразделения — он возглавит группу экспертов по кибербезопасности, чтобы выяснить, как использовать искусственный интеллект в правоохранительных органах.
По словам главы Офиса менеджмента и бюджета Шаланды Янг, правительство США планирует нанять 100 специалистов по искусственному интеллекту к лету.
Федеральные агентства также должны проверять, соответствует ли любая система ИИ, которую они разворачивают, мерам предосторожности, которые «уменьшают риски алгоритмической дискриминации и обеспечивают общественности прозрачность того, как правительство использует искусственный интеллект».
В пресс-релизе Офиса приводят несколько примеров:
«Если агентство не может применить эти гарантии, оно должно прекратить использование системы искусственного интеллекта в случае, когда руководитель не может обосновать, почему это увеличит риски для безопасности или прав в целом, или создаст неприемлемое препятствие критически важным операциям агентства», — говорится в пресс-релизе.
Согласно новым указаниям, любые государственные модели искусственного интеллекта, код и данные должны быть обнародованы для общественности, если это не представляют риска для деятельности правительства.
За исключением подобных отдельных указаний, в США до сих пор нет законов, регулирующих искусственный интеллект — зато в ЕС уже проголосовали собственные правила, которые, как ожидается, вступят в силу в мае.