• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

6 сентября состоялся семинар А.Б. Хомякова «Угрозы, которых мы не ожидали от искусственного интеллекта»

На базе НУЛ трансцендентальной философии А. Б. Хомяков представил свой доклад, за которым последовала оживленная дискуссия.

В самом начале доклада подчеркивается, что несмотря на то, что самой популярной угрозой искусственного интеллекта (далее - ИИ) считается так называемое «восстание машин», нынешний уровень развития ИИ пока не позволяет всерьез обсуждать эту проблему. Тем не менее существует целый ряд реальных угроз использования ИИ. Важно отметить, что исходят они не от самой системы, а от человека, который владеет и пользуется ею.

Докладчик подчеркивает, что последнее время в мире наблюдается тенденция к ограничению использования и исследования ИИ. Связано это с тем, что у человека не всегда получается объяснить то или иное решение ИИ, т.к. последний является самообучающейся системой, которая исходит из множества факторов, в связи с чем интерпретировать процесс обучения и действия ИИ для человека становится все труднее. Но повод ли это для запрета работы не до конца понятных человеку систем? Действительно, к ИИ необходимо относиться с осторожностью, но исследования должны продолжаться, ведь именно за этой областью стоит будущее человечества.

Все же нужно учитывать все риски, в связи с чем докладчик обращается к шести реальным угрозам сегодняшнего ИИ, описание каждой из которых подтверждается примерами действующих в наше время систем. Первой угрозой является возможность генеративных ИИ порождать большое количество текстовой информации за минимальное время. Один человек способен контролировать сотни «ботов», выдающих себя за реальных людей, с целью влияния на мнение и подталкивания к действию остальных, действительно существующих пользователей. Суть второй угрозы состоит в том, что человек может начать слишком часто перекладывать решение каких-либо задач на ИИ, хотя последний является вероятностной системой и может часто ошибаться. Третья угроза связана с тем, что мы не можем адекватно интерпретировать процесс обучения ИИ, не можем точно указать, какие именно данные были им связаны, чтобы прийти к тому или иному результату. Следующая угроза – полная зависимость человека от ИИ, а точнее от тех, кто им владеет. Существует также и угроза того, что с развитием виртуальной реальности люди не захотят находиться в действительности, т.к. она окажется не так удобна и интересна, как выдумка. Последняя описанная докладчиком угроза затрагивала тему «Deepfake» как потерю последней опоры на реальность.

Однако, как подчеркивает докладчик, по-настоящему серьезная угроза от ИИ станет возможно только тогда, когда он сам научится принимать решения. Подобное вполне может стать результатом создания очередной системы, которая, решая задачи, озадачиться собственным созданием как ключом к лучшему решению задач.

После доклада развернулась оживленная дискуссия. Участники обсуждали экзистенциальный характер угроз ИИ для человека; базовую потребность человека в построении отношений с другими субъектами; возможность замены таких отношений искусственным интеллектом; тягу людей к имитации реальной жизни как к источнику эмоций; угрозу потери другого с развитием ИИ; уровень опасности перечисленных угроз и многое другое.

С записью мероприятия можно ознакомиться на YouTube-канале А.Б. Хомякова (дата обращения - 25.09.2021).

Электронная почта для связи с А.Б. Хомяковым: Alexander.xom@gmail.com.