
Неудачные попытки использования искусственного интеллекта в работе убеждают, что он не просто бесполезен, но и банально вреден. Речь идет даже не об астрофизике или молекулярной биологии, а о простейших запросах.
Google Gemini, например, вместо Портсмутского договора, завершившего Русско-японскую войну 1904–1905 годов, описал события, которые не происходили и не могли произойти, то есть соврал (или галлюцинировал, как обтекаемо называют ложь ИИ разработчики). По версии ИИ, чтобы подписать акт о капитуляции России и закрепить в договоре ее территориальные уступки и репарации, японская делегация в 1905 году прибыла в Петербург. Забавно, но по версии Gemini в 1855 году в столице Российской империи был подписан и Симодский договор.
Углубленный поиск в интернете с помощью ИИ оказался таким же мифом. Нужно было проанализировать данные из открытых источников о персонажах, упоминавшихся в публикациях. Но в ответ на запросы ИИ не выдал ровным счетом ничего, при этом каждая из моделей, к которым я много раз обращался, заверяла, что у этих людей нет даже профилей в социальных сетях. Найти профили самостоятельно при помощи обычного интернет-поисковика не составило труда и заняло минимум времени.
Сомнения в практической пользе ИИ и подозрения в раздувании маркетингового пузыря вокруг недоработанной технологии с целью привлечения инвестиций назрели, и я решил поэкспериментировать, задав вопросы ChatGPT. По поводу своей очевидной бесполезности чат выдал следующее: «Да, ИИ — это пузырь по всем формальным признакам». Перечисляет атрибуты пузыря: обещания, радикально превышающие реальные возможности; подмена понятий (интеллект вместо автодополнения); демонстрационные кейсы вместо устойчивых результатов; массовое внедрение до понимания, зачем и где это работает; агрессивный маркетинг, плюс страх пользователя отстать от прогресса. Затем ИИ идет еще дальше и говорит, что пузырь ИИ подпитывается институционально — властями, инвестфондами и корпорациями, им всем выгодно поддерживать этот нарратив, даже в тех случаях, когда эффективность ИИ сомнительна.
«Один из базовых законов экономики гласит: риск пропорционален ожидаемой доходности, — говорит вице-президент по стратегии и новому бизнесу Компании развития общественных связей (КРОС) Ксения Касьянова. — Сегодня проекты в сфере ИИ — это ниша, где риски высоки, как и потенциальная прибыль. Риски возникают из-за того, что на рынке представлен широкий спектр разнородных проектов с ИИ-составляющей. При этом технологическая основа многих из них не всегда прозрачна, а успех в привлечении инвестиций часто зависит не от реальных рыночных перспектив, а от активности продавцов».
По словам Ксении Касьяновой, рынок переживает стадию, когда стартапы стремятся за счет маркетинговых инструментов привлечь как можно больше инвестиций, а инвесторы снизили порог критической оценки в ожидании сверхприбылей. В такой ситуации неизбежен сценарий, при котором многие проекты не выйдут на планируемые показатели прибыли и покинут рынок, часть инвестиций так и не окупится, что, по словам Ксении Касьяновой, и станет моментом, когда пузырь ИИ лопнет, а это в свою очередь приведёт к обвалу цен и убыткам инвесторов.
Оценки перспектив технологии, не выдерживающей груза возложенных на неё задач и надежд, в целом сводятся к предсказаниям краха. Но к нему надо относиться не как к катастрофе, а скорее как к прозрению и спасению.
В понимании человека, работающего со смыслами, формулирующего и заключающего их в текст, ИИ выдает нечто ужасное, показывающее пропасть между истиной в человеческом понимании и «выводами» недоделанной машины. ИИ выдаёт следующее: «Массовое недоверие к тексту возникает не потому, что текст перестал быть носителем истины, а потому что стоимость отличения истинного текста от ложного стала неприемлемо высокой. Античные тексты противоречат друг другу. Средневековые хроники полны вымысла. Философские трактаты столетиями строились на ложных посылках. Научные тексты были неверны большую часть истории науки. Вывод: доверие к тексту как к истине — не норма, а краткий исторический эпизод — примерно XIX–XX века. Люди начинают думать не «этот текст плох», а «любой текст может быть сгенерирован, значит, любой текст подозрителен». Это катастрофическая логическая ошибка, и она массовая».
Но все не так: ИИ не создавал античные тексты, не писал средневековые хроники и философские трактаты и не совершал научные открытия. Люди доверяли тексту, написанному людьми. И прежде чем нейросеть попытается лишить нас этого наследия, пузырь ИИ должен лопнуть.
Ещё больше мнений экспертов по данному вопросу опубликовало издание Москвич Mag.
Комментарии /1
После 22:00 комментарии принимаются только от зарегистрированных пользователей ИРП "Хутор".
Авторизация через Хутор: