Лидеры самых известных в мире компаний, занимающихся искусственным интеллектом, набираются в новую консультативную группу Министерства внутренней безопасности.
Официально названная Советом по безопасности и защите искусственного интеллекта, группа будет консультировать правительство США по широкому кругу вопросов, связанных с искусственным интеллектом. Руководство будет касаться не только национальной безопасности, но и потребления электроэнергии (что является проблема на горизонте для ИИ) и производство, согласно Wall Street Journal.
Сообщается, что совет впервые встретится в мае и намерен собираться один раз в квартал.
Министр внутренней безопасности Алехандро Майоркас заявил, что, хотя ИИ может принести огромную пользу США, неправильное внедрение технологий на основе ИИ может иметь последствия. «Неспособность развернуть ИИ безопасным, надежным и ответственным образом, когда дело касается критической инфраструктуры, может иметь разрушительные последствия», — сказал Майоркас.
Департамент делает все возможное для членства в совете директоров, в который входят некоторые из крупнейших имен в технологической отрасли: генеральный директор Nvidia Дженсен Хуанг, генеральный директор Microsoft Сатья Наделла, генеральный директор Alphabet Сундар Пичаи и генеральный директор OpenAI Сэм Альтман. На эту должность были приглашены и другие важные фигуры, в том числе генеральный директор AMD Лиза Су и генеральный директор Cisco Чак Роббинс.
Руководители технических компаний составляют лишь часть совета директоров, который, как предполагается, насчитывает почти два десятка членов, обладающих важными полномочиями в других областях, таких как академические круги, политика и другие отрасли.
Другими известными членами компании, не связанной с искусственным интеллектом, являются генеральный директор Northrop Grumman Кэти Уорден, исполнительный директор Комитета юристов за гражданские права в соответствии с законом Дэймон Хьюитт и губернатор Мэриленда Уэс Мур, член Демократической партии, как и президент Байден, который прошлой осенью поставил на месте Меры безопасности ИИ посредством исполнительного приказа.
В отчете не приводится полный список членов Совета по безопасности ИИ или то, насколько широко представлены различные отрасли, однако вполне вероятно, что технологическая индустрия составит единую крупнейшую группу с восемью известными членами. Ожидается, что в общей сложности в совете будет 23 членских места.
Если группа руководителей технологий и искусственного интеллекта выступит единым фронтом, то им будет всего четыре дополнительных голоса до получения большинства при принятии решений. «Они понимают миссию этого совета», — сказал Майоркас в отношении этих опасений. «Эта миссия не направлена на развитие бизнеса».
Хотя неясно, насколько успешным будет этот совет в своих целях консультирования правительства США по вопросам, связанным с ИИ, но очевидно, что тема ИИ становится очень сложной. В оборонной промышленности его испытывают на предмет автономные боевые машины, включая реактивные; в то же время, Представители Палаты представителей обсуждают, будут ли компании, занимающиеся искусственным интеллектом, должны раскрыть, включают ли их данные обучения контент, защищенный авторским правом.
О, и ИИ может вмешаться в выборы еще более мощный чем это было последние пару раз. Учитывая, что до предстоящих президентских выборов осталось чуть больше шести месяцев, создание совета является очень своевременным. ®
- SEO-контент и PR-распределение. Получите усиление сегодня.
- PlatoData.Network Вертикальный генеративный ИИ. Расширьте возможности себя. Доступ здесь.
- ПлатонАйСтрим. Интеллект Web3. Расширение знаний. Доступ здесь.
- ПлатонЭСГ. Углерод, чистые технологии, Энергия, Окружающая среда, Солнечная, Управление отходами. Доступ здесь.
- ПлатонЗдоровье. Биотехнологии и клинические исследования. Доступ здесь.
- Источник: https://go.theregister.com/feed/www.theregister.com/2024/04/26/jensen_huang_and_sam_altman/