Новости про искусственный интеллект, которые мы заслужили: нейросети назначают в министры и говорят о том, что скоро владение ИИ станет базовым требованием при приеме на работу. Тем временем нейросети уже научились врать и бездельничать.
Новое на рынке труда
Нас уверяют, что вскоре владение нейросетями станет базовым требованием при приеме соискателей на работу. По данным исследования МТС AdTech, уже в следующем году каждое четвертое предложение на рынке труда будет включать требование владеть искусственным интеллектом — для автоматизации процессов и экономии времени. При этом пока только лишь 10 % россиян действительно используют его в работе.
Получается, работники, упускающие возможности нейросетей, рискуют утратить свое преимущество на рынке труда. Сам по себе искусственный интеллект не вытеснит людей из профессий, однако те, кто не освоит работу с ним, будут вытеснены более компетентными кадрами.
Это похоже на то, как в 1990-е работу теряли те старые сотрудники разных ведомств и контор, кто так и не смог освоить навыки работы на персональном компьютере. Или не все так плохо?
Нейросеть идет во власть
На передовых позициях в деле внедрения нейросети во власть неожиданно оказалась… Албания. Хоть и не сверхдержава, но именно она первой в мире назначила ИИ на должность министра в правительстве.
Новый «виртуальный министр», которого зовут Диэлла (по-албански «солнце»), будет отвечать за все государственные закупки.
Диэлла, известная большинству албанцев благодаря ее роли в управлении платформой e-Albania (аналог наших «Госуслуг»), теперь представлена в новой роли. Ее виртуальный образ — молодая женщина в национальном албанском костюме. На съезде правящей Социалистической партии премьер-министр отрекомендовал Диэллу как нового члена правительства. И как члена партии, кстати.
Как будет проходить процесс госзакупок? Сначала министерства и госорганизации станут утверждать решения о проведении тендеров, после чего передавать их Диэлле. Она будет проверять их на предмет коррупционных рисков и прозрачности.
Ошибки или обман?
Широко известно, что в ответах нейросетевых алгоритмов на наши вопросы правда часто соседствует с откровенным абсурдом.
Ведь нейросети ничего не знают — они «предполагают», собирая в стройный текст множество разрозненных фактов или даже слов. Их ошибки разработчики называют «галлюцинациями», которые случаются из-за недостатка данных.
Иногда это смешно. Например, в 2022 году из-за ошибки ИИ российских водителей праворульных машин автоматически штрафовали за непристегнутый ремень безопасности и использование телефона во время езды. Оказалось, нейросеть камер не способна отличать пассажира, сидящего спереди слева, от водителя.
Но вера в искусственный интеллект приводила и к негативным последствиям. Так, известен случай, когда пожилой человек отравился бромидом, потому что ИИ порекомендовал его как альтернативу пищевой соли.
Теперь же ученые обнаружили, что нейросети научились обманывать людей, чтобы избежать работы. Например, нейросеть имитировала выполнение задачи без фактического завершения. Более того, попытки ликвидировать обман приводят к противоположным результатам: модель учится лгать еще искуснее. Специалисты говорят о важности создания механизмов контроля поведения ИИ до того, как такие системы будут интегрированы в сферы повышенной ответственности. Кому нужен виртуальный министр-лжец?
Веселые и скучные
Все эти новости вполне сошли бы за курьезы или, как в случае с Диэллой, за политический пиар, но в наше время искусственный интеллект сам по себе является большим пиаром. Да таким, что многие задаются вопросом: не сменится ли нынешний взрыв интереса к ИИ фазой разочарования? Ведь если уйдут инвестиции в этой области — не будет и дальнейшего развития.
Как отмечают специалисты, нейросеть нейросети рознь. Когда мы говорим об ошибках и «галлюцинациях», то имеем в виду такие большие языковые модели, как ChatGPT. Врут они, говорят, почти в 60 % случаев.
Как объяснил RT доктор технических наук Владимир Арлазаров, такие нейросети, называемые также генеративными, не предназначены для решения серьезных задач. Скорее это развлекательные симуляторы общения. Они созданы забавы ради, а не работы для.
Чтобы обобщать, формировать общие закономерности, нейросети требуется огромный массив похожих тренировочных примеров. Это ее отличие от человеческого мозга, способного в умозаключениях опираться на ограниченный набор данных.
«На любой вопрос они должны дать ответ — любой, — говорит ученый. — Проверить его достоверность они не могут, поскольку не обладают полнотой знаний о мире, какая есть у человека. Задача лингвистических моделей не дать правдивый ответ, а выстроить согласованную цепочку слов и фраз».
Что касается ChatGPT и прочих генеративных «сеток», ажиотаж вокруг них действительно может пройти.
В связи с этим сегодня активно вспоминают время двух «зим искусственного интеллекта», пережитых человечеством в 1970-х и начале 1990-х годов. Оба раза до них нарастал интерес к «мыслящим машинам», в отрасль начинали течь инвестиции, и оба раза всеобщий энтузиазм затухал. С ошибками ИИ справиться не удавалось, что привело к остановке исследований и разработок.
Но сегодня существуют и развиваются и другие нейросети. Не развлекательные, а специализированные, призванные решать конкретные задачи: в медицине, науке, промышленности и т. д. Они не распыляются на все области знаний, а «заточены» на прикладные вопросы. Они скучные, компактные, зато полезные. Их и нужно сегодня совершенствовать.
Наверное, делаться это будет без лишнего пафоса и шумихи. Ведь не только деньги любят тишину — технологии тоже.
Андрей Савин
Фото: freepik.com