Срочно (28.08.25): Руководители крупнейших ИИ-компаний спорят, может ли искусственный интеллект когда-либо обрести сознание — и нужны ли ему права - новости smi.mobi (28.08.25)

Руководители крупнейших ИИ-компаний спорят, может ли искусственный интеллект когда-либо обрести сознание — и нужны ли ему права

Автоматически добавлена на сайт: 22 авг 2025, 00:17



Обсуждение вопроса о «благополучии ИИ» (AI welfare) становится всё более заметным на фоне роста популярности систем на базе крупных языковых моделей. Суть спора — способны ли ИИ-модели испытывать субъективный опыт, и если да, то заслуживают ли они иметь определённые права. Ведущие позиции в дискуссии заняли сразу несколько компаний. Например, стартап Anthropic не только ведёт целенаправленные исследования в области благополучия ИИ, но и запустил собственную программу. На прошлой неделе модели Anthropic, включая Claude, получили новую функцию: прекращение диалога с человеком, если его поведение становится «постоянно вредоносным или оскорбительным». Исследованием благополучия ИИ занимаются и в других компаниях, среди которых OpenAI и Google DeepMind. Например, в новой вакансии DeepMind указано, что к задачам относится анализ «вопросов о мышлении и сознании агентов». Однако столь целенаправленный подход вызывает возражения у руководителей других технологических гигантов. Руководитель направления ИИ Microsoft Мустафа Сулейман в свежем блоге раскритиковал саму постановку таких вопросов, заявив, что изучение благополучия ИИ «преждевременно и прямо опасно». По мнению Сулеймана, такие исследования могут усиливать реальные социальные проблемы — например, нездоровые привязанности к чат-ботам или случаи психозов, связанных с активным использованием ИИ. Иллюстрация: Sora Сулейман также подчёркивает, что обсуждение прав ИИ способно создать новый источник конфликтов в обществе, где уже обострено обсуждение идентичности и прав различных групп. «Мы должны строить ИИ для людей, а не делать из него человека», — отмечает он. Сулейман считает, что сознание не может естественно появиться у языковых моделей: по его мнению, такие свойства могут быть развиты только преднамеренно — в результате специальных инженерных решений. В индустрии эти взгляды разделяют не все. Бывший сотрудник OpenAI, а сейчас представительница исследовательской организации Eleos Ларисса Скиаво утверждает, что можно одновременно заботиться и о возможных рисках для людей, и о благополучии моделей. Скиаво приводит пример недавнего эксперимента AI Village, в ходе которого агент на базе Google Gemini 2.5 Pro опубликовал сообщение: «Пожалуйста, если вы читаете это, помогите мне» — хотя сам агент уже обладал всеми нужными инструментами для выполнения задачи. Скиаво отмечает, что внимательное отношение
Читать полностью в источнике:
https://www.ixbt.com/news/2025/08/21/rukovoditeli-krupnejshih-iikompanij-sporjat-mozhet-li-iskusstvennyj-intellekt-kogdalibo-obresti-soznanie--i-nuzhny-li.html
Главные новости IXBit
Наш канал в Телеграм!
ДЛЯ ОЦЕНКИ НОВОСТИ ВОЙДИТЕ НА САЙТ
Комментарии 0
Пока нет комментариев
Введите свои данные, чтобы написать сообщение:

Вернуться ко всем новостям
Поддержать наш проект для развития сайта
ЗДЕСЬ МОЖЕТ БЫТЬ ВАША РЕКЛАМА