Руководителей Google и Microsoft пригласили на совещание в Белом доме по рискам искусственного интеллекта

Руководители компаний Google, Microsoft, OpenAI и Anthropic, входящие в Alphabet Inc, примут участие во встрече в Белом доме в четверг с вице-президентом Камалой Харрис по вопросам внедрения искусственного интеллекта (ИИ).

В приглашении на мероприятие, которое оказалось в распоряжении телеканала CNBC, говорится, что официальные лица планируют провести "откровенную дискуссию" с руководителями компаний. Харрис намерена обсудить с главами технологических гигантов потребность в мерах безопасности, которые могут снизить потенциальные риски ИИ, и подчеркнет важность этичных и заслуживающих доверия инноваций.

Генеративный ИИ вызвал острые дискуссии после того, как OpenAI выпустила своего нового вирусного чат-бота под названием ChatGPT в конце прошлого года. В последующие месяцы Microsoft интегрировала генеративную технологию OpenAI во многие свои продукты в рамках своих многолетних многомиллиардных инвестиций в компанию. Google запустил конкурирующего генеративного чат-бота под названием Bard в феврале, а Anthropic анонсировала появление своего чат-бота Claude в марте.

Хотя многие эксперты с оптимизмом смотрят на потенциал генеративного ИИ, эта технология также вызывает вопросы и опасения со стороны регулирующих органов и гигантов технологической отрасли. Согласно отчету, опубликованному в понедельник, Джеффри Хинтон, известный некоторым представителям технической индустрии как "крестный отец ИИ", оставил свою давнюю должность в Google отчасти для того, чтобы поделиться своими опасениями по поводу потенциальной угрозы искусственного интеллекта. Илон Маск, генеральный директор Tesla, SpaceX и Twitter (заблокирован в РФ), был одним из более чем 27 тысяч человек, подписавших в марте открытое письмо, в котором содержится призыв к лабораториям по созданию искусственного интеллекта приостановить свои разработки.

Белый дом заявил, что встреча в четверг является частью более широких усилий администрации Байдена по привлечению экспертов к этой технологии и обеспечению безопасности продуктов ИИ до того, как они будут представлены общественности.