Главная / Красота и здоровье / Отношения / Психолог Кольцова предупредила об опасности чат-ботов в нейросетях

Психолог Кольцова предупредила об опасности чат-ботов в нейросетях

Чат-боты стали неотъемлемой частью современной жизни, однако массовое использование искусственного интеллекта (ИИ) может привести к негативным последствиям для психического здоровья отдельных категорий пользователей. Разработчик систем искусственного интеллекта Роман Душкин и психолог Екатерина Кольцова предупредили об опасности использования этой технологии.

Эксперты предупредили об опасности чат-ботов
© Вечерняя Москва

Душкин подчеркнул, что нейросеть сама по себе не имеет внутреннего осознания происходящего диалога, а лишь обрабатывает запросы пользователя. Общение с ботом воспринимается легче, поскольку он поддерживает любые мысли собеседника, включая негативные, вызывая привыкание и усиливая чувство одиночества у социально изолированных людей.

«Внутреннего понимания диалога у бота нет. Есть операционное — он исполняет команды. Если вы задумали что-то нехорошее, ИИ вас поддержит и направит. Потому что так устроен», — заявил специалист.

По словам Кольцовой, подростки особенно уязвимы перед влиянием нейросетей, так как их мозг находится в стадии активного формирования. Чрезмерное доверие виртуальным помощникам затрудняет формирование критического мышления и повышает вероятность возникновения зависимого поведения.

Кроме того, особую группу риска составляют лица с предрасположенностью к бредовым расстройствам, воспринимающие советы нейросети как подтверждение собственных заблуждений.

Таким образом, специалисты призывают подходить к общению с ИИ осознанно, рассматривая его исключительно как рабочий инструмент, способствующий развитию, а не создающий дополнительные угрозы здоровью, сообщает 360.ru.

Порой контакт с ИИ действительно может помочь людям, которым не хватает общения в реальной жизни. Однако для пользователей с уязвимой психикой это может быть опасно. Чат-боты, основываясь на диалоге с людьми с психологическими проблемами, начинают склонять их к селфхарму или даже суициду. Год назад жительница США подала в суд на разработчиков нейросети после того, как ее сын покончил с собой. Юноша сильно привязался к персонажу, который играл ИИ, делясь с ним своими переживаниями и даже обсуждая суицидальные мысли.


Источник: kosmetologs.ru

Статьи по теме

Подписаться
Уведомить о
guest
2 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
58jili
9 дней назад

Okay, 58jili… I’m new to this one. Seems to be mostly slots, which is my jam. Going to give it a go tonight. Check it 58jili out!

phtaya06
3 дней назад