Причины самоубийств, которые следуют за взаимодействием с чат-ботами и нейронными сетями, преимущественно связаны с уже имеющимся у пострадавших пограничным психическим состоянием. Такое мнение выразил психолог, кандидат психологических наук и писатель Михаил Хорс в беседе с aif.ru.
Когда речь идет о людях, доведенных до самоубийства, вероятно, эти люди находились в каком-либо пограничном состоянии или имели установленный диагноз на момент общения с нейросетями. Заметим, что пограничное состояние также является диагнозом. Подобная ситуация не позволяет обеспечить защиту для всех.По утверждению специалиста, в общении с искусственным интеллектом необходимо придерживаться умеренности и проявлять осторожность в использовании его советов.
Важно помнить, что не стоит полностью поддаваться прямому взаимодействию с искусственным интеллектом, как и с обычным человеком. Тем не менее, такая коммуникация предоставляет достойные возможности.В США против компании OpenAI, известной как разработчик чат-бота ChatGPT, были поданы несколько исков. Жалобы истцов утверждают, что взаимодействие с этой программой привело к четырем случаям самоубийств, а также вызвало тяжёлые психические нарушения у нескольких человек.
Ранее юрист Кофанов прокомментировал, в каких случаях шутка на работе, даже при помощи искусственного интеллекта, может стать причиной увольнения.