OpenAI разрешила использовать ChatGPT в военных целях

Технологическая компания OpenAI исподтишка ослабила ограничения на применение своей технологии искусственного интеллекта в военных целях. Это может способствовать заключению контрактов с американскими военными.

Об этом сообщил Business Insider.

В необъявленном обновлении политики использования ChatGPT 10 января компания упразднила широкий запрет на использование своей технологии для «военных дел». Но службы OpenAI все еще запрещено использовать для более конкретных целей, включая разработку оружия, ранение других или уничтожение имущества.

Представитель компании сказал изданию, что новая политика использования OpenAI теперь включает такие принципы, как «не причиняй вред другим», которые являются «широкими, но легко понятными и актуальными во многих контекстах».

Некоторые эксперты по искусственному интеллекту озабочены тем, что переписанная политика OpenAI слишком обобщена, особенно в условиях, когда технология искусственного интеллекта уже используется во время конфликта в Секторе Газа. Израильские военные заявляли, что использовали ИИ для определения целей бомбардировки.

Изменения политики OpenAI могут открыть двери для будущих контрактов с военными, считает Business Insider.

Представитель компании отметил, что уже существуют случаи использования ИИ в целях национальной безопасности, которые соответствуют миссии компании. Например, OpenAI сотрудничает с Агентством передовых оборонных исследовательских проектов США, «чтобы стимулировать создание новых инструментов кибербезопасности».