Поддержать команду Зеркала
Беларусы на войне
  1. «Будут задержки зарплаты». «Киберпартизаны» рассказали «Зеркалу» о последствиях атаки на «Химволокно»
  2. Рейс из Омана, который не долетел до аэропорта назначения, возвращается в Минск — «Белавиа»
  3. Один увлекается тестами, другой «спалился» из-за выборов. Игорь Лосик — об информаторах, которых подсаживают в камеры СИЗО КГБ
  4. Беларусам стали чаще отказывать в повторном ВНЖ в Польше, если они допустили одну ошибку с первым
  5. Поляков спросили, какая соседняя страна вызывает у них наибольшую симпатию. Вот что они думают о Беларуси
  6. «Все трактуют как доход». Налоговая рассылает «письма счастья» — требует отчитаться, откуда пришли деньги: к кому возникают такие вопросы
  7. Функционера БРСМ судили за измену государству и дали 17 лет — «Наша Ніва»
  8. По всей Беларуси водители не могут зарядить электромобили на станциях Malanka. Что произошло
  9. Рядом с Николаем Лукашенко часто можно видеть одного и того же охранника. Узнали, кто он
  10. После энергетики — логистика: Россия меняет тактику ударов по Украине — ISW
  11. Беларуске дали срок за посылки политзаключенным, которые она покупала за свои деньги. Где в ее действиях нашли экстремизм
  12. Лукашенко снова высказался о «вероломном нападении» на Иран. Но главным виновником назвал не США
  13. Рублю прогнозировали непростое начало 2026 года. Тем временем в обменниках сложилась весьма нетипичная ситуация
  14. Трамп рассказал, на каком месте война в Украине в его «списке приоритетов»
  15. Кто такие аятоллы? Объясняем, почему они главные в Иране и кто может быть следующим


OpenAI столкнулась с негативной реакцией пользователей после объявления о сотрудничестве с Пентагоном. Согласно данным аналитической компании Sensor Tower, количество людей, удаляющих ChatGPT, выросло на 200% по сравнению с обычным уровнем. Гендиректор OpenAI Сэм Альтман пообещал добавить в контракт с Минобороны США запрет на использование систем компании для слежки за американцами, пишет Русская служба Би-би-си.

Изображение используется в качестве иллюстрации. Фото: openai.com
Изображение используется в качестве иллюстрации. Фото: openai.com

В компании OpenAI заявили, что согласовали изменения в «небрежном» соглашении, заключенном с правительством США, об использовании своих технологий ИИ в секретных военных операциях.

Гендиректор OpenAI Сэм Альтман заявил, что компания добавит в соглашение формулировку, включающую явный запрет на использование ее систем для шпионажа за американцами.

Соглашение было заключено в пятницу после конфликта между конкурентом OpenAI — компанией Anthropic — и Министерством обороны США, вызванного опасениями по поводу использования ее модели искусственного интеллекта Claude для массовой слежки и в полностью автономном оружии.

В заявлении, сделанном в субботу OpenAI, утверждается, что договор с Пентагоном содержит «больше ограничений, чем любое предыдущее соглашение о развертывании секретных систем искусственного интеллекта, включая соглашение с Anthropic».

Но в понедельник Альтман написал в X, что в соглашение вносятся дополнительные изменения, в том числе чтобы гарантировать, что система не будет «намеренно использоваться для внутреннего наблюдения за гражданами и подданными США».

Изображение используется в качестве иллюстрации. Фото: x.com/OpenAI
Изображение используется в качестве иллюстрации. Фото: x.com/OpenAI

Как сообщается, после внесения дополнительных поправок спецслужбы, такие как Агентство национальной безопасности, также не смогут использовать систему OpenAI без «дополнительных изменений» в контракте.

Альтман добавил, что компания совершила ошибку, поспешив «обнародовать изначальное заявление в пятницу».

«Эти вопросы чрезвычайно сложны и требуют четкой коммуникации», — сказал он.

OpenAI столкнулась с негативной реакцией пользователей после объявления о сотрудничестве с Пентагоном.

Согласно данным Sensor Tower, количество людей, удаляющих ChatGPT, резко возросло после того, как в пятницу было объявлено о партнерстве OpenAI с Министерством обороны.

Аналитическая компания сообщила, что среднесуточный показатель удалений вырос на 200% по сравнению с обычным уровнем.

Между тем Claude от Anthropic поднялся на вершину рейтинга App Store, где он оставался и во вторник.

Модель искусственного интеллекта была внесена в черный список администрацией Дональда Трампа после того, как компания Anthropic отказалась поступиться своим корпоративным принципом «красной линии», согласно которому ее технологии не должны использоваться для создания полностью автономного оружия.

Тем не менее позднее стало известно, что Claude применялся в ходе войны США и Израиля с Ираном: американский партнер Би-би-си — CBS News — сообщил, что по состоянию на вторник модель продолжала использоваться.

Пентагон отказался комментировать свои отношения с Anthropic.

Как ИИ используется в военной сфере

ИИ используется в военной сфере по-разному, например, для оптимизации логистики или быстрой обработки больших объемов информации.

США, Украина и НАТО используют технологии американской компании Palantir, которая предоставляет государственным заказчикам инструменты для анализа данных в целях сбора разведданных, наблюдения, борьбы с терроризмом и военных целей.

Министерство обороны Великобритании недавно подписало с этой компанией контракт на сумму 240 млн фунтов стерлингов.

В конце прошлого года Би-би-си пообщалась с некоторыми из тех, кто участвовал в интеграции оборонной платформы Maven на базе ИИ от Palantir в НАТО.

Это программное обеспечение объединяет огромный объем военной информации, от спутниковых данных до разведывательных отчетов, которая затем может быть проанализирована коммерческими системами искусственного интеллекта, такими как Claude, чтобы помочь принимать «более быстрые, более эффективные и, в конечном итоге, более смертоносные решения, когда это уместно», — сказал Луис Мосли, глава британского подразделения Palantir.

Снимок экрана из демонстрации системы искусственного интеллекта Palantir. Фото: BBC/Palantir
Снимок экрана из демонстрации системы искусственного интеллекта Palantir. Фото: BBC/Palantir

Но крупные языковые модели ИИ могут допускать ошибки или даже выдумывать вещи — это явление известно как «галлюцинации».

Подполковник Аманда Густав, главный специалист по данным в оперативной группе Maven НАТО, подчеркнула, что этим системам необходим контроль со стороны человека и что «никогда не будет так», чтобы ИИ «принимал решения за нас».

Palantir, в отличие от Anthropic, не поддерживает полный запрет на автономное оружие, но считает, что в процессе должен участвовать человек.

Однако профессор Оксфордского университета Мариаросария Таддео заявила Би-би-си, что с уходом Anthropic из Пентагона «самый заботящийся о безопасности участник» теперь «вышел из игры».

«Это реальная проблема», — добавила она.