Противостояние Маска и Альтмана усиливает дискуссию о безопасности ИИ

95
История отношений Илона Маска и исполнительного директора OpenAI Сэма Альтмана остается одной из наиболее показательных для современной технологической отрасли. Каков контекст этого конфликта, и какие последствия он несёт для компаний, участвующих в разработке ИИ?
От партнерства к конфликту
В 2015 году Маск и Альтман совместно основали OpenAI как некоммерческую исследовательскую структуру, призванную развивать искусственный интеллект, отдавая приоритет «безопасности и общественной пользе». Однако уже к 2018 году расхождения во взглядах в вопросах управления и стратегии развития компании привели к уходу Маска из совета директоров. С этого момента сотрудничество сменилось конкуренцией, а затем и публичным конфликтом.
Ключевым пунктом разногласий стали изменения в организационной структуре OpenAI, включая создание коммерческого подразделения и расширение сотрудничества с Microsoft, что, по мнению Маска, противоречило первоначальным принципам компании. Маск неоднократно утверждал, что компания отошла от первоначальных принципов открытости. В феврале 2023 года он написал: «OpenAI была создана как некоммерческая организация, ориентированная на принципы открытости, чтобы служить противовесом Google, но теперь она стала закрытой компанией, ориентированной на получение максимальной прибыли, фактически контролируемой Microsoft».
Безопасность технологий как инструмент спора
В январе 2026 года конфликт перешёл в новую фазу после взаимных заявлений Маска и Альтмана о рисках, связанных с продуктами их компаний. Поводом стали сообщения о случаях гибели людей, которые были связаны с использованием технологий искусственного интеллекта и автономного вождения. Маск, комментируя публикацию о ChatGPT, написал: «Не позволяйте своим близким использовать ChatGPT».
Альтман в ответ заявил, что компания несёт «огромную ответственность» за защиту людей с нестабильным психическим состоянием, а сами случаи назвал «трагическими и сложными ситуациями». Одновременно он указал на риски, связанные с разработками компаний Маска. По его словам, «по всей видимости, более 50 человек погибли в авариях, связанных с использованием технологии автопилота». Альтман также отметил: «Я ездил в машине с этой системой всего один раз, давно, и моей первой мыслью было, что это далеко не безопасная вещь, которую Tesla стоило выпускать».
Судебные разбирательства
Публичные обвинения друг друга сопровождаются юридическими действиями. Маск подал несколько исков против OpenAI, утверждая, что его ввели в заблуждение при создании организации, и что руководство нарушило первоначальные договоренности. В одном из интервью он заявил: «Я не доверяю Сэму Альтману, и я не думаю, что мы хотим, чтобы самый мощный ИИ в мире находился под контролем человека, которому нельзя доверять».
OpenAI, в свою очередь, считает эти иски частью стратегии давления и попыткой ослабить конкурента. Ожидается, что судебный процесс перейдет к рассмотрению с участием присяжных в 2026 году, что может создать важный прецедент для всей отрасли.
Политический контекст
Американист Никита Сенюшкин в беседе с изданием «Нос» рассказал отметил, что «конфликт Маска и Альтмана давно вышел за рамки личных разногласий. Он затрагивает вопросы государственного регулирования и антимонопольной политики.
«Участие обеих сторон в крупных инфраструктурных и политически значимых проектах усиливает внимание к их противостоянию. Одновременно конкуренция между OpenAI, xAI и связанными с ними партнёрами влияет на распределение капитала и разработку стандартов безопасности, которые применяются при создании ИИ. В более широком смысле этот спор отражает фундаментальные разногласия о том, как должен выглядеть контроль над ИИ, и кто несёт ответственность за последствия его внедрения.
Для компаний, участвующих в разработке ИИ, этот конфликт имеет несколько последствий. Во-первых, он усиливает внимание регуляторов и инвесторов к вопросам корпоративного управления, прозрачности и ответственности за продукцию, особенно в секторах, где технологии напрямую влияют на безопасность пользователей. Во-вторых, публичный характер спора повышает репутационные риски для всех вовлеченных сторон, поскольку обсуждение возможных негативных последствий использования ИИ происходит вне профессиональной среды и становится частью общественной повестки. В результате компании вынуждены учитывать не только технологические факторы, но и множество юридических и регуляторных деталей, которые становятся неотъемлемой частью стратегии в сфере развития искусственного интеллекта», сказал Никита Сенюшкин.
