Вчера я была на мероприятии, посвящённом перспективам применения искусственного интеллекта в организациях. Среди прочих там были два спикера - продуктовый менеджер IT-компании и психолог.
🤖Менеджер с восторгом говорил, что люди теперь могу сливать свои негативные эмоции в ИИ-боты психологической поддержки. ИИшечку не жалко, а живым людям чужие эмоции - перегруз. Да, и времени у бота сколько угодно. И второе - что скоро ИИ научат непрерывно оценивать эмоции и настроение любого сотрудника по голосу, переписке, мимике и пр. И на стол начальнику будут падать отчёты, как себя чувствует человек. Хочется спросить, и какой процент руководителей способен грамотно работать с этими отчетами? Какой процент сотрудников будет счастлив, что его эмоции оценивают 8 часов каждый день? Будет как в той новости, где сотрудников опросили на предмет выгорания и выгоревших уволили. Правда, потом как будто не уволили, но осадочек остался.
❤️🩹 Потом выступала психолог. Она сказала очень важную и мега-значимую для меня вещь. Что психологи, кто долго консультирует, учатся слышать и видеть то, чего человек недоговаривает. Такая профессиональная наслушенность и насмотренность. Как будто чувствовать собеседника на уровне мыслей - та самая, между прочим, эмпатия. Мало того, что ИИ такое не может, так ещё и ИИ при регулярном применении притупляет это чутье у человека, потому что оно как будто больше и не нужно. У ИИ нет "сонастроенности" на людей, только техничный анализ сказанного явно и алгоритмичные ответы. Возможно ли развить такое у машины?
И вот сидят рядом два человека: технарь, который горит азартом вытряхнуть в отчеты эмоции живого человека. А рядом - психолог, который бережёт свои профессиональные "тонкие настройки", чтобы иметь возможность, действительно помочь людям.
При этом, буквально на днях прочла, что в США ИИ уже используется для отслеживания общения школьников в соцсетях на предмет самоповреждающего поведения. И вот здесь та дилемма, которую я, в свою очередь, услышала от уважаемого спикера из другой IT-организации:
👥👥👥👥👥👥
Когда людей спросили, нужна ли цензура в ИИ, многие ответили "конечно", но когда спросили, а нужно ли цензурировать лично тебя, то все ответили - нет.
👥👥👥👥👥👥
Самоповреждения это и суициды в том числе. Стоит ли хотя бы одна спасенная жизнь ложной нервотрепки для десятка семей - это важный этический вопрос.
👽 Как говорят футурологи, есть сценарии будущего, которые мы хотим приблизить, а есть те, которые лучше бы не сбывались никогда...