OpenAI, Anthropic и Google объединили усилия для защиты своих моделей искусственного интеллекта от несанкционированной дистилляции — метода, при котором одна ИИ-система использует выводы другой для собственного обучения и развития аналогичных способностей. Сотрудничество осуществляется через Frontier Model Forum, некоммерческую организацию, созданную этими компаниями совместно с Microsoft в 2023 году. По данным источников, такие практики обходятся разработчикам Кремниевой долины в миллиарды долларов упущенной годовой прибыли. OpenAI подтвердила обмен информацией в рамках форума и в феврале 2026 года обратилась в Конгресс США с обвинениями против китайских компаний DeepSeek, Moonshot и MiniMax в попытках дистилляции. Это стало ответом на растущую конкуренцию и риски утечки технологий.
В то же время OpenAI столкнулась с внутренними и внешними противоречиями вокруг сотрудничества с военными. В феврале 2026 года CEO Сэм Альтман в меморандуме для сотрудников поддержал позицию Anthropic, запрещающую использование моделей для массовой слежки, автономного летального оружия и опасных автоматизированных решений без человеческого контроля. Однако после объявления о партнерстве с Министерством обороны США и выпуска модели GPT-5.3, которая стала менее склонной к моральным оговоркам, разгорелись скандалы. Альтман позже уточнил, что компания не контролирует применение технологий Пентагоном, оставляя решения за государством. Это привело к оттоку американских пользователей и потере корпоративных клиентов, подчеркивая напряжение между этическими принципами и коммерческими интересами.
6 апреля 2026 года OpenAI опубликовала 13-страничный документ с рекомендациями по адаптации экономики и общества к эпохе сверхинтеллекта — ИИ, превосходящего человека во всех аспектах. Предлагается ввести налог на использование ИИ и автоматизированный труд для компенсации снижения налогов с зарплат, развивать системы безопасности для контроля моделей, а также ускорять строительство энергосетей через государственно-частные партнерства без роста тарифов для населения. Дополнительно компания объявила о закрытии приложения Sora для массовой генерации видео 26 апреля 2026 года и API — к 24 сентября, перенаправив ресурсы на исследования в симуляции мира и робототехнику. Эти шаги отражают стратегический поворот: защита интеллектуальной собственности, этические ограничения и подготовка к трансформации рынка труда, где ИИ может заменить миллионы рабочих мест, но также спровоцировать судебные иски от издателей вроде The New York Times за использование контента в обучении моделей.
Сотрудничество между ведущими компаниями в области ИИ направлено на защиту интеллектуальной собственности и преодоление этических дилемм, вызванных развитием технологий.

Комментарии(0)
Оставьте комментарий
Войдите, чтобы присоединиться к обсуждению