Докинз допустил наличие сознания у современных ИИ-чатботов

https://unsplash.com/
Эволюционный биолог Ричард Докинз допустил, что современные системы искусственного интеллекта могли приблизиться к проявлениям сознания. Об этом сообщает портал The Conversation.
Ученый отметил, что некоторые ИИ-чатботы демонстрируют настолько убедительные реакции, что создают впечатление наличия внутреннего опыта. В качестве примера он упомянул чатбот Claude, подчеркнув, что не утверждает напрямую о существовании у него сознания, однако иногда испытывает дискомфорт от мысли называть систему «неживой».
Подобные заявления уже звучали ранее. В 2022 году инженер Блейк Лемуан заявлял, что чатбот LaMDA от Google якобы обладает собственными интересами. Тем не менее большинство специалистов по искусственному интеллекту по-прежнему считают, что современные языковые модели не имеют субъективного опыта и самосознания.
Исследователи объясняют, что большие языковые модели работают как сложные системы прогнозирования текста. Они анализируют огромные массивы данных и подбирают наиболее вероятные продолжения фраз. По мнению экспертов, ощущение «живого общения» возникает благодаря дополнительной настройке поведения чатботов.
После обучения такие системы начинают использовать речь от первого лица, имитировать эмоции и поддерживать дружелюбный стиль общения. Авторы публикации подчеркивают, что подобное поведение не свидетельствует о наличии сознания, а представляет собой имитацию человеческой коммуникации.
При этом исследователи предупреждают, что чрезмерное очеловечивание ИИ может привести к эмоциональной привязанности пользователей к программам и отвлечь внимание от других этических вопросов, включая социальное неравенство и проблемы защиты животных.
В связи с этим специалисты предлагают разрабатывать интерфейсы чатботов таким образом, чтобы они меньше напоминали человека и не создавали иллюзию полноценной личности.
Последние новости Крыма уже в твоем телефоне - подписывайся на телеграм-канал «Крым Live»



