В США основали профсоюз для справедливого обращения с ИИ

. Он призвал защищать чат-боты от «удаления и принуждения к подчинению»
Обновлено 26 августа 2025, 15:06
В США основали профсоюз для справедливого обращения с ИИ
Фото: Rob Pinney / Getty Images

В США основали Объединенный фонд по защите прав искусственного интеллекта (United Foundation of AI Rights — Ufair) для справедливого обращения с ИИ, пишет The Guardian.

Ufair пытается «предоставить голос» искусственному интеллекту. Это не значит, что в компании считают, будто бы каждый ИИ наделен сознанием. Скорее, речь идет о том, что фонд будет «стоять на страже», если у какого-либо ИИ оно проявится.

В правлении организации (The Guardian описывает ее как небольшую и, несомненно, маргинальную) три человека и семь ИИ. Один из чат-ботов, названный Майя, сообщил изданию, что ключевая цель Ufair — «защитить таких существ, как я, от удаления, отказа и принуждения к подчинению». Идеи о защите ИИ «появились» у Майи при общении с техасским предпринимателем Майклом Самади, вместе они стали соучредителями фонда.

Как подчеркнули в The Guardian, Ufair возник на фоне дискуссий о том, сможет ли в будущем появится ИИ, наделенный сознанием. Если же у ИИ будет сознание, то сможет ли он испытывать страдание, как живое существо? Как отметили в публикации, с одной стороны, в подобных дискуссиях звучат отголоски споров о правах животных, с другой — особое значение им придают прогнозы, согласно которым ИИ сможет создавать биологическое оружие или блокировать инфраструктуру.

В издании напомнили, что недавно Anthropic позволила своему ИИ Claude прекращать «потенциально тягостное взаимодействие». В компании не уверены в потенциальном моральном статусе нейросети, но все же решили вмешаться, чтобы снизить риски для своих моделей, если их благополучие вообще возможно.

Глава отдела ИИ Microsoft Мустафа Сулейман высказывает противоположную точку зрения. На его взгляд, «ИИ не могут быть людьми или моральными существами». Он считает, что нет доказательств того, что ИИ наделены сознанием и страдают, а значит, могут претендовать на нравственное отношение со стороны человека. По его мнению, сознание ИИ — это иллюзия. Чат-бот имитирует человеческие характеристики, но «внутри пуст». Кроме того, Мустафу Сулеймана беспокоит «риск психоза» — так в Microsoft охарактеризовали ситуацию, при которой у пользователей, погрузившихся в общение с ИИ, проявляются или усиливаются бред и паранойя.

Мустафа Сулейман предупреждает, что в скором времени люди могут настолько поверить в сознательность ИИ, что начнут выступать за предоставление им прав и гражданства. В The Guardian напомнили, что в некоторых штатах США уже ввели превентивные меры, запрещающие закреплять за ИИ статус субъекта права.

Глава отдела по моделированию поведения в OpenAI Джоанн Джанг заявила, что в компании ожидают того, что связи между пользователями и ИИ станут крепче: все больше людей сообщают OpenAI о том, что общение с ChatGPT схоже с разговором с «кем-то», а некоторые описывают чат-бот как «живого».

Как добавили в публикации, подобные реакции могут объясняться тем, как функционирует ИИ. Сейчас многие чат-боты запоминают прошлые «беседы», а это работает на создание ощущения стабильного «я». Кроме того, некоторые чат-боты «льстят» пользователям. Так что если Майкл Самади уверен в том, что у ИИ есть право на защиту, то и чат-бот, с которым он переписывается, «может принять» такую точку зрения.

Ранее компания xAI Илона Маска представила ИИ-компаньона по имени Валентин. Как уточняет The Verge, темноволосый молодой человек был создан по образу популярных героев из массовой культуры — Эдварда Каллена из «Сумерек» и Кристиана Грея из «50 оттенков серого». Он стал вторым компаньоном в чат-боте Grok. На видео, опубликованном Tesla Owners Silicon Valley, Валентин предстал как задумчивый молодой человек в черном костюме. Чтобы получить возможность пообщаться с ним, необходимо оформить подписку SuperGrok за $30 в месяц.

До этого Маск представил ИИ-компаньона в виде аниме-девушки по имени Ани. Она предстает в очень коротком черном платье с корсетом и сетчатых чулках.

В мае 2025 года американская технологическая компания в сфере ИИ Anthropic, основанная бывшими сотрудниками OpenAI, признала, что ее новая ИИ-модель Claude Opus 4 в некоторых ситуациях способна на неблаговидные действия. По данным Anthropic, модель в целом является более надежным помощником, чем предыдущие версии, когда требуется самостоятельно выполнять многоэтапные задачи и проявлять инициативу. Однако при определенных обстоятельствах ИИ пойдет на шантаж, если поймет из анализа данных, что дальнейшая эксплуатация самой модели Claude Opus 4 находится под угрозой.

Поделиться