Общие проблемы генеративных моделей ИИ

Системы Искусственного Интеллекта за предельно короткий срок ворвались в нашу жизнь. И так же в предельной короткий срок стали угрозой для миллионов работников. Уже сейчас в различных компаниях происходит увольнения тысяч сотрудников с заменой их на инструментарий ИИ, а общий масштаб изменений оценивается в 300 миллионов рабочих мест только в США и Европе.

Однако так ли всё хорошо, не рискуем ли мы сами себе “выкопать яму”, столь резко переходя на подобные инструменты? Нет ли у них проблем?

Общая теория. Генеративные модели.

Для начала – определение:

Генеративный ИИ относится к алгоритмам искусственного интеллекта, которые позволяют использовать существующий контент, такой как текст, аудиофайлы или изображения, для создания нового правдоподобного контента. 

То есть, это модели, позволяющие на основе имеющихся знаний, накопленных материалов, создавать частные решения, адаптированные именно к решению непосредственно нашей задачи, резко сокращая количество трудовых часов сотрудников, требующихся без этих моделей.

Примеры:

  • GPT – языковая (текстовая) генеративная модель, создающая правдоподобные тексты (статьи, слоган, программные коды и тд), на основе других текстов, использовавшихся при её обучении.
  • Midjourney – генеративная сеть художественного контента (для обучения испльзовались изображения, создаются изображения)
  • Runway – генеративная модель видео-контента (создание видео по тестовому запросу) и тд.
  • другие, более специализированные решения.

Вроде бы, идея неплохая. Но давайте несколько иначе расставим акценты:

  1. “…создания нового правдоподобного контента…”
  2. “…использовать существующий контент…”
  3. ИИ не может чувствовать. Это математический алгоритм.

Проблемы инструментов генеративного ИИ

Далее, можем сформулировать некоторые общие проблемы для всех моделей генеративного искусственного интеллекта.

Проблема подготовленности пользователя (авторизации результата)

Любой результат работы ИИ, особенно коммерчески- или научно-значимый должен быть проверен пользователем системы. И тут возникает противоречие: чем более сложная и эффективная ИИ-модель работает, тем более многогранным может быть результат, и тем более высокий уровень квалификации, общей и профессиональной эрудиции должен иметь пользователь ИИ-системы, чтобы проверить достоверность и пригодность этого результата по массе параметров.

Проблема поля вариантов (альтернативы)

Генеративная модель создаёт результат. Один. Фактически – конечное решение той или иной степени сложности. Традиционные поисковые системы, различная литература, обучение – фактически дают некое поле вариантов, из которых сам пользователь созидает нужный результат. Результат же работы ИИ-систем обычно либо однозначен (одно решение), либо несколько вариативен, но в рамках примерно одного поля результатов. Эта особенность резко сужает пространство возможных искомых решений, результаты становятся однообразными, скучными.

Проблема нестабильности результата

Результат работы генеративной модели критически сильно зависит от формулировки запроса. Яркий пример – программирование. Даже от изменения артикля, предлога, порядка слов зависит конечный результат. Практически невозможно 100% повторить компоновку программного продукта, повторно задав такую же формулировку в запросе. И в некоторых случаях, разработку придётся начинать с нуля, постепенно наращивая функционал.

То же относится и к инструкциям, например. Невозможно автоматически переформулировать раздел или параграф так, чтобы он был точно логически и в формулировках связан с остальным текстом.

В результате такая проблема влечёт резкий рост времени на создание материалов, снижение качества контроля результата и другие негативные эффекты.

Проблема негативной спирали знаний

Мы акцентировали внимание ранее на словах “…создания правдо-подобного контента…”.

Любая модель учится на основе существующего объёма знаний. Наиболее простой источник – сайты в Интернет.

Инструментарий ИИ планируется использовать для создания контента в Интернет.

Таким образом, рано или поздно, мы попадём в ситуацию, когда ИИ учится на основе результатов своей работы – на материалах, созданных инструментом Искусственного Интеллекта. Правдо-подобных результатов.

Учитывая объём и возможности автоматизации процессов, например, создания новостей, уже сейчас невозможно создать сколько-нибудь эффективный механизм “контроля качества” – возможности генерации многократно превышают возможности восприятия результата разумным человеком.

В случае, если модель ИИ учится на основе недостоверных данных, создаёт недостоверные данные, мы попадаем в целую область (знаний) материалов, не являющихся истинными или достоверными, но их объём вполне может сыграть роль подтверждения (ну ведь на других сайтах тоже именно так написано!).

Тут же возникает проблема Прерывания негативной спирали знаний. То есть по идее, сети должны научиться сами определять был ли текст сгененерирован другой нейронной сетью или написан человеком. И в случае автоматической генерации, такой текст, по идее, не должен рассматриваться как источник обучения.

Проблема снижения общей грамотности

Учитывая проблемы поля вариантов, подготовленности пользователя, негативной спирали знаний, а также потенциального массового увольнения профессиональных сотрудников, получаем проблему общего снижения грамотности человечества – как из-за накопления ложных знаний, так и из-за массовой потери профессиональных компетенций, снижениям объёма накоплений истинных знаний и, как следствие, усиления явления негативной спирали знаний.

Фактически, при успешном массовом внедрении систем ИИ происходит перевод больших групп населения из категории производителей в категорию чистых потребителей.

Проблема малых изменений (окно Овертона)

Снижение способности выполнять общий контроль над получаемым результатом фактически может быть использован в манипулятивных целях. Если на сегодняшний день манипулятивные механизмы вроде “окна Овертона” известны, обсуждаемы в обществе, то при снижении потенциала критической оценки предлагаемого материала потребителем, возможности манипуляций возрастают кратно и фактически концентрируются в руках небольших групп населения. Результаты такого явления предлагаю обдумать самостоятельно.

Заключение и выводы

Понимая масштабы изменений, происходящих на текущий момент Илон Маск, Стив Возняк, Эндрю Янг и ещё более 50 тыс человек подписали письмо некоммерческой организации Future of Life с призывом приостановить разработку и обучение более мощных моделей, чем GPT-4.

Несколько моментов:

  1. Бизнес всегда будет стремиться к сокращению текущих издержек. Предельно редко бизнес планирует работу на несколько десятилетий вперёд.
  2. Уровень образованности каждого отдельного человека – это дело именно этого человека или его семьи, как часто считается.
  3. Скорость генерации материала в автоматизированном режиме существенно превышает возможности осознания этого материала любым количеством людей.
  4. Мы сейчас находимся, видимо, в последней точке, когда можно надеятся, что материал в Интернете создан хоть каким-то человеком. Запомните Интернет таким, какой он есть сейчас. Больше такого не будет.

Всё будет хорошо. Готовьтесь. (С)

PS: персонально меня пугает именно проблема Негативной спирали знаний. Всё остальное так или иначе уже существует в нашем обществе с той или иной степенью. А вот с постепенным “уводом” нас, людей в сторону ложных знаний – сознательным или случайным – я пока не представляю что делать и как с этим бороться.

А следствие – следствие читайте в мрачно-футуристической статье “Армагеддон будем тихим“.

Я долго думал, какой текст добавить в футер этого сайта в поле для копирайта. С этого момента там написано:

“(c) Все тексты этого сайта написаны человеком. Без использования искусственного интеллекта

Share
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x