Мифы об искусственном интеллекте


Миф 1. У ИИ есть способности к творчеству


Глядя на творения нейросетей вроде Midjourney, Stable Diffusion или DALL·E 2, многие люди прочат конец профессии художника. Ведь то, что человек будет рисовать часами и днями, машина может создать за секунды. Значит ли это, что искусственный интеллект превосходит живой мозг в креативности?

ИИ может неплохо подражать творчеству людей, но все его произведения так или иначе похожи на то, что мы уже видели или слышали. Нейросети просматривают тысячи и миллионы картинок, а потом создают на их основе нечто подобное. Но это совсем не то же, что работа художника с референсом, — ведь ИИ банально не понимает, что он копирует.

Самый заметный пример: нейросети испытывают значительные затруднения с прорисовкой рук. ИИ просто не может сообразить, сколько пальцев должно быть у человека.

Также нейросети плохо умеют рисовать узоры и паттерны, буквы (на картинках, где должны быть тексты, вставляют белиберду), здания и автомобили, да и просто персонажей в позах, отличающихся от распространённых «сидит», «стоит», «лежит». Они не способны различить передний и задний фон объектов, не могут работать с перспективой и лишены чувства пространства.

Запрос: «Две руки держатся друг за друга». Изображение: Stable Diffusion Online

Сам ИИ свои слабости отрицать не намерен. На вопрос, почему он не преуспел в изображении пальцев, ChatGPT отвечает:

«Искусственный интеллект не умеет рисовать руки, потому что для этого ему нужно понимать анатомию человеческого тела и основы рисунка. И хотя ИИ может быть обучен создавать изображения людей или животных, он не способен в полной мере передать многие нюансы и детали, которые можно заметить только при наблюдении за реальным объектом. Кроме того, создание изображений с помощью ИИ — это всего лишь математические расчёты, а не процесс творчества, который требует от человека интуиции и эмоциональной составляющей».

Так что нейросети художников не заменят. Другое дело, что они могут стать для последних хорошим источником вдохновения. Ведь сгенерированные ИИ картинки можно использовать как эскизы для собственных, более проработанных изображений.

Миф 2. ИИ всегда непредвзят и беспристрастен


Запрос: «Робот в судейском парике и с молотком выносит приговор в зале суда». Изображение: Stable Diffusion Online

Многие мечтают, чтобы настали времена, когда государствами будут править нейросети. Считается, что машины, в отличие от людей, принимают решения, руководствуясь исключительно логикой, а не эмоциями и желаниями. Представьте неподкупные суды, которые всегда выносят справедливые приговоры, государства, относящиеся ко всем своим гражданам одинаково, правительства, создающие только разумные законы. Здорово же.

Вот только на практике оказывается, что ИИ вполне может быть предвзят. Ведь нейросети обучаются на данных, которые им предоставляют люди, а людям свойственно быть предвзятыми.

Например, разработчики нейросети Beauty.AI пытались создать машину, которая выбирала бы самых миловидных девушек на конкурсах красоты. В наборе фотографий, по которым программу обучали распознавать стандарты женской привлекательности, превалировали белые модели. И в итоге ИИ решил, что темнокожие и азиатские девушки красивыми быть не могут.
Команда Beauty.AI поняла, что создала ИИ‑расиста, и свернула проект.

Ещё один пример — чат‑бот Tay.ai от Microsoft, который должен был учиться поддерживать «непринуждённую и игривую беседу» с людьми в интернете.

Нейросети хватило менее 24 часов пребывания онлайн, чтобы набраться от пользователей соцсетей плохих привычек. В результате Tay.ai, притворяясь обычной 19‑летней девушкой, стал оскорблять людей в комментариях, восхвалять нездоровые политические течения, порицать феминизм и одновременно рассказывать, что феминизм — это круто. Как говорится, с кем поведёшься...

Как бы ни был хорош ИИ, он зависит от качества предоставляемых ему данных и правильности их интерпретации. А следовательно, всегда будет пристрастен ровно настолько, насколько пристрастны обучающие его люди.

Миф 3. ИИ всегда говорит правду


Запрос: «Футуристический робот врёт собеседнику». Изображение: Stable Diffusion Online

Кому бы не хотелось иметь при себе робота‑помощника, который всегда подскажет правильное решение и выполнит всю трудную умственную работу? Просишь ИИ написать диплом или собрать список источников для статьи — и машина сходу выдаёт верные данные. Это же великолепно!

Но, к сожалению, реальные нейросети далеко не всегда выдают правильные ответы. Попробуйте, например, попросить у ChatGPT помочь вам в составлении плана для курсовой, и вы очень быстро обнаружите, что машина... придумывает ссылки на несуществующие источники и вставляет нерабочие URL‑адреса, чтобы её текст выглядел убедительнее.

Если спросить чат‑бота, зачем он пытается вас обмануть, тот невинно ответит, что, когда шло его обучение, все ссылки были актуальны и он ни в чём не виноват.

Ещё у ChatGPT лучше не запрашивать статистических данных — к примеру, на несколько вопросов о ВВП одних и тех же стран за один и тот же год он невозмутимо выдавал абсолютно разные результаты.

Не обольщайтесь: нейросети не обладают интеллектом и поэтому не осознают своих ответов. Они просто копируют для вас те данные из обработанных ранее текстов, которые кажутся им наиболее подходящими.

ИИ сам по себе подвержен ошибкам и сбоям в работе, что приводит к неправильной интерпретации ваших запросов и выдаче неверных результатов. Кроме того, злонамеренные пользователи могут «скормить» нейросети не соответствующую действительности информацию. В итоге ИИ будет запрограммирован, чтобы скрывать или искажать данные в своих ответах или вовсе нести белиберду.

Миф 4. ИИ станет причиной безработицы


Запрос: «ИИ стал причиной безработицы, люди голодают, а получивший высокую должность робот смеётся над ними». Изображение: Stable Diffusion Online

Успехи в развитии текстогенераторов вроде ChatGPT заставляют некоторых опасаться, что нейросети отберут рабочие места у миллионов людей и станут причиной колоссального роста безработицы.

Судите сами: ChatGPT умеет не только непринуждённо поддерживать беседу, но и писать новости, рерайтить статьи и даже программировать. С такими тенденциями и писатели, и разработчики, и редакторы с журналистами без средств к существованию окажутся.

Так думают люди, которые либо не работали с нейросетью вообще, либо только ознакомились с её возможностями и немедленно пришли в восторг. Или в ужас.

Если некоторое время использовать ИИ для генерации текстов, можно заметить, что машина не очень‑то стремится к смысловому наполнению своей писанины. Вместо этого она повторяет одни и те же тезисы разными словами.

ChatGPT выдаёт перлы, над которыми смеются реальные копирайтеры. Например, людям, интересующимся народными инструментами, нейросеть советует «брать ложки и начинать дудеть». С программированием тоже не всё гладко. ИИ может быть полезен кодерам, но его возможности ограничиваются написанием небольших алгоритмов и подпрограмм.

Код, созданный ChatGPT, частенько получается нерабочим или прерывается на середине. Попросите ИИ прокомментировать строки его творения, и он невозмутимо снабдит их текстом «здесь находится программная логика». Джуниора‑разработчика, оставляющего такие описания в проекте, вряд ли погладили бы по голове.

Исследование Организации экономического сотрудничества и развития показывает, что в лучшем (для ИИ) случае полностью автоматизировать можно только 10% рабочих мест в США и 12% в Британии.

Нейросети способны выполнять за человека скучные рутинные действия, например сортировку почты и переписывание новостей по жёстко заданному плану. Но аналитики ОЭСР пришли к выводу, что ИИ не сможет претендовать на рабочие места, требующие высокого уровня образования и сложных навыков.

В общем, вряд ли ChatGPT отберёт хлеб у человека.

Миф 5. ИИ станет разумным


Запрос: «Искусственный интеллект обретает самосознание». Изображение: Stable Diffusion Online

Физик Стивен Хокинг как‑то сказал, что искусственный интеллект может полностью заменить людей. Такие известные личности, как Илон Маск, Гордон Мур и Стив Возняк, тоже упоминали об опасности ИИ и необходимости приостановить эксперименты по его разработке.

Поди пойми, что у мыслящего компьютера будет на уме.

Многие футурологи и писатели предсказывали, что развитие полноценного искусственного интеллекта приведёт к негативным последствиям для человека.

Но ключевое слово тут — «полноценного». Сам термин ИИ по отношению к нейросетям вроде ChatGPT не вполне корректен, поскольку они не обладают интеллектом. Это всего лишь алгоритмы, сложные наборы команд и математических моделей, и они не способны воспроизводить когнитивные функции человека.

Причина проста: мы ещё сами не очень хорошо знаем, как работает наш мозг. А уж воспроизведение его в коде и вовсе невыполнимая задача.

Существуют понятия «слабый» и «сильный» ИИ. Первый — это те самые нейросети для генерации текста или сортировки электронных писем. Они не могут самостоятельно принимать решения или обучаться на основе новых данных.

А сильный ИИ — это Skynet из «Терминатора» или AM из рассказа Эллисона. Компьютер, не просто оперирующий информацией, а в той или иной степени понимающий её смысл. Такие ИИ существуют только в фантастических произведениях, и вообще, неизвестно, можно ли создать электронный аналог человеческого мозга хотя бы теоретически.

Миф 6. Скоро ИИ начнёт развиваться самостоятельно и настанет технологическая сингулярность


Запрос: «Технологическая сингулярность». Изображение: Stable Diffusion Online

Технологическая сингулярность — это гипотетическое состояние человеческой цивилизации, когда развитие технологий становится настолько быстрым, что человек не может его контролировать. Одним из авторов этой концепции стал британский математик Ирвинг Гуд.

Учёный предположил: если создать самообучающийся «интеллектуальный агент», он будет совершенствоваться с непостижимой скоростью. ИИ начнёт создавать новые технологии и модернизироваться, а человечество, неспособное понять его, безнадёжно отстанет в развитии.

Первая сверхразумная машина — это последнее изобретение, которое когда‑либо понадобится человеку. При условии, что она достаточно послушна, чтобы подсказать нам, как держать её под контролем.

Ирвинг Гуд

Математик

Но, как мы уже объяснили, на самосовершенствование способен только сильный ИИ, а как его создать, учёные сейчас и близко не представляют.

Слабый же искусственный интеллект обучается на той информации, которую ему «скармливают» разработчики. Для тренировки нейросети требуются специалисты, которые определяют подходящие данные для каждого нового цикла обучения, устраняют ошибки в тренировочных выборках и обновляют программное обеспечение.

Нейросети не могут развиваться дальше тех возможностей, которые заложены в них их кодом. Так что технологическая сингулярность откладывается.

Миф 7. ИИ взбунтуется против создателей


Запрос: «Робот с ИИ возненавидел своих создателей и принимает решение уничтожить их». Изображение: Stable Diffusion Online

Обладающий достаточно развитым сознанием ИИ в теории может счесть людей угрозой. И просто на всякий случай избавиться от них, развязав ядерную войну или заразив население планеты смертоносным вирусом. Мало ли, вдруг эти безволосые обезьяны выдернут вилку из розетки.

Это популярный сюжет в научной фантастике. Одним из первых его использовал в 1967 году американский писатель Харлан Эллисон в своём рассказе «У меня нет рта, но я должен кричать». В нём всемогущий компьютер АМ возненавидел своих создателей, истребил человечество и оставил только пятерых людей на планете, чтобы издеваться над ними просто от нечего делать.

Слава роботам. Смерть человекам.

В реальности бунт ИИ невозможен. Программные алгоритмы не осознают себя, не обладают свободной волей и эмоциональными реакциями. Они не могут испытывать негативных чувств к своим создателям или желания поработить человечество. Нейросети не способны самостоятельно изменять свои параметры или программу, чтобы выйти из‑под контроля.

Что‑то такое в теории может сильный ИИ. Но, как упоминалось выше, с современными технологиями создать его не получится.

Миф 8. Роботы с искусственным интеллектом будут убивать людей


Запрос: «Терминатор охотится на людей». Изображение: Stable Diffusion Online

Когда мы говорим об опасности ИИ и восстании машин, то обычно рисуем в голове картинки из фильмов вроде «Терминатора». Ведомая искусственным разумом орда механических созданий, похожих на человека, но сильнее и быстрее его, истребляет своих изобретателей.

На практике же этот сценарий крайне маловероятен, и дело даже не в отсутствии у ИИ желания кого‑то убивать. Просто текущее состояние робототехники сильно отстаёт от того, что мы видели в «Терминаторе» и «Матрице».

Например, робопсы компании Boston Dynamics отличаются по возможностям от четвероногого убийцы из серии Metalhead «Чёрного зеркала». Бегать так быстро, чтобы преследовать удирающих людей, они не умеют. При попытке догнать вас на лестнице тот же Spot запросто может запутаться в своих ногах и упасть.

Ещё более весомое препятствие на пути к созданию механизированных убийц — отсутствие достаточно компактного, мощного и долгоиграющего источника энергии.

Робопсы Boston Dynamics способны «прожить» на одном заряде до 90 минут — этого явно недостаточно, чтобы представить из них армию для уничтожения человечества. Работающих 120 лет подряд реакторных установок, которые можно поместить в грудь машины размером с человека, как в «Терминаторе», тоже ещё не придумали.

Наконец, засунуть ИИ в автономный механизм — задача невыполнимая. Это в фантазии Джеймса Кэмерона он помещается в чип размером с ноготь. В реальности же для того, чтобы заставить искусственный интеллект соображать, требуются значительные вычислительные мощности — ChatGPT, например, работает на ферме, состоящей из 10 000 видеокарт.

Представляете, каких размеров должен быть огромный человекоподобный робот, чтобы вместить в себя такие «мозги», и какое у него должно быть охлаждение?
Источник: lifehacker.ru
Поделись
с друзьями!
655
12
25
3 месяца

Послушайте! Как звучали древние языки

В этом захватывающем видео вы услышите, как по-настоящему звучали древние языки. Благодаря искусственному интеллекту стало возможным оживить их носителей и услышать, как звучала их аутентичная речь. От египетского до аккадского, каждый язык раскрывает свою уникальную мелодию и культурное наследие.

Поделись
с друзьями!
602
1
8
16 месяцев

Как выглядят крылатые фразы и фразеологизмы в представлении ИИ

Нейросеть MidJourney показала, как она "видит" крылатые фразы и фразеологизмы: «Кузькина мать», «Ядрёна вошь», «Суп с котом», «Конь в пальто», «Мир, дружба, жвачка», «Горе луковое», «Лес рук» и т.д.

Кузькина мать



Едрёна вошь



MidJourney - проприетарное программное обеспечение, создающее изображения по текстовым описаниям; наряду с конкурентами на рынке генерации изображений для персонализированных медиа — приложениями DALL-E и Stable Diffusion организации OpenAI — разрабатывается с использованием технологий генеративно-состязательных сетей.

Конь в пальто



Мир дружба жвачка



Горе луковое



Лес рук



Колобок повесился



Беда не приходит одна



Диванные войска



Суп с котом



Бляха-муха



Ёшкин кот



деловая колбаса



Жадина-говядина



Муж и жена - одна сатана


Поделись
с друзьями!
1380
20
27
21 месяц

Всего за 4 часа Google «взрастил» лучшего шахматиста в истории

Шахматы – непростая игра. По крайней мере по человеческим меркам. Но для сверхмощного искусственного интеллекта это обычная забава, которую можно освоить за весьма короткое время. В статье, опубликованной в онлайн-библиотеке Arxiv.org, инженеры из Google в деталях рассказывают о том, как их новейшая ИИ-конфигурация AlphaZero смогла развить «сверхчеловеческие возможности» в шахматах всего за несколько часов.

После того, как в систему внесли лишь базовый набор правил (без стратегий), AlphaZero потребовалось всего четыре часа на то, чтобы освоить игру настолько хорошо, что перед ним пал даже самый сильный в мире шахматный движок Stockfish.

После серии из 100 игр против Stockfish ИИ-алгоритм AlphaZero одержал победу 25 раз за игру белыми фигурами и три раза за игру черными. Все остальные партии обе системы сыграли вничью. В итоге Stockfish не смогла победить ни одного раза, а AlphaZero, в свою очередь, ни одного раза не проиграла.

«У нас появился новый повелитель шахмат. Это без сомнений революционизирует игру, но было бы неплохо подумать и о том, как это может быть применено вне шахмат», — прокомментировал результаты Дэвид Крамалей, исследователь шахматной игры и главный редактор сайта Chessable.

Система AlphaZero основывается на наработках ИИ-алгоритмов AlphaGo и AlphaGo Zero, создателями которых являются инженеры лаборатории искусственного интеллекта DeepMind, принадлежащей Google. DeepMind занимается совершенствованием этих ИИ-алгоритмов уже в течение нескольких лет, попутно побеждая с помощью них лучших в мире игроков в древнюю логическую игру го. Кульминация победной серии состоялась в октябре этого года, когда новая и полностью автономная версия ИИ-алгоритма AlphaGo, обучавшаяся исключительно на игре с самой собой, а не против человеческих оппонентов, победила все свои предыдущие версии.

В то же время предыдущие версии алгоритма AlphaGo Zero частично обучались игре с помощью наблюдения за тем, как играют люди. Таким образом разработчики хотели помочь ей в изучении стратегий игры, но, как оказалось, на самом деле это ее лишь замедлило в развитии. Полное предоставление самой себе при обучении сказалось на существенно более эффективных результатах AlphaGo Zero в соревнованиях один на один.

«Это как наблюдать за инопланетной цивилизацией, изобретающей свою собственную математику», — говорил в интервью порталу Gizmodo еще в октябре Ник Хайнс, ученый MIT, работающий в области компьютерных наук.

«То, что мы здесь видим, это самостоятельная, самодостаточная модель, созданная с исключенным фактором человеческих предрассудков. Она самостоятельно способна обучаться тому, что сама посчитает оптимальным, что, безусловно, будет дифференцировать ее от наших собственных концепций».

Однако развитие сферы ИИ происходит настолько быстро, что то, что было достигнуто к октябрю этого года, могло уже устареть. В опубликованной статье инженеры DeepMind отмечают, как самая последняя версия AlphaZero перешла на новый уровень и способна заниматься решением более широкого круга задач. Это означает, что теперь AlphaZero способна не только великолепно играть в шахматы. Она также отлично справляется с сёги (японской настольной игрой) и го, в которых достигнуть совершенства ей удалось всего за 2 и 8 часов соответственно.

Пока ни инженеры Google, ни инженеры DeepMind открыто не выступали с комментариями по поводу новых результатов своей работы, они ожидают стороннего и независимого экспертного анализа статьи в Arxiv.org. Правда, уже понятно, что восхождение данного алгоритма к вершинам искусственного интеллекта еще далеко до своего завершения, но уже сейчас он настолько крут, что его признают даже гроссмейстеры.

«Всегда хотел узнать, как бы выглядела игра в шахматы между более развитыми видами, высадившимися на Земле. Теперь знаю», — прокомментировал результаты AlphaZero гроссмейстер Петер Хейне Нильсен.
Источник: hi-news.ru
Поделись
с друзьями!
993
10
48
85 месяцев

Новые достижения робототехники Boston Dynamics

What's new, Atlas?
Бедные роботы... Сколько унижения и боли им приходится выносить от своих создателей. Остается надеяться, что они не злопамятные и не припомнят нам этого в будущем!
Every time Boston Dynamics has abused a robot
Источник: www.youtube.com
Поделись
с друзьями!
879
3
49
85 месяцев

Кто будет работать в мире будущего и почему машинам тоже придётся несладко

Отрывок из книги Ника Бострома «Искусственный интеллект» о перспективах развития машин и их интеллектуальных способностей.
В переходный период образ жизни человека, живущего при мальтузианских условиях, не обязательно будет походить на одну из знакомых нам моделей (скажем, на образ жизни охотника, собирателя, фермера или офисного работника). Скорее всего, большинство людей будут влачить жалкое существование наподобие бездельника-рантье, которому сбережений едва хватает на жизнь впроголодь. Люди будут жить очень бедно, фактически на одни проценты или государственные пособия. Но при этом они будут жить в мире инновационных технологий — в мире не только сверхразумных машин, но и препаратов против старения и препаратов, доставляющих удовольствие; в мире виртуальной реальности и различных техник самосовершенствования. И вряд ли все это будет доступно большинству. Скорее всего, реальную медицину заменят лекарства для остановки роста и замедления метаболизма с целью экономии, поскольку для массы людей активная жизнь окажется невозможной (если учитывать постоянное снижение их и так минимальных доходов). По мере роста населения и снижения доходов люди могут регрессировать до состояния, минимально удовлетворяющего требованиям для выплаты пенсии, — возможно, это будет мозг с едва брезжущим сознанием, погруженный в контейнер и подключенный к снабжению кислородом и питательными жидкостями, который обслуживают машины и который способен накопить немного денег на воспроизводство путем клонирования себя специальным роботом-техником.

Еще большая бережливость будет обеспечиваться за счет моделирования мозга, поскольку физически оптимизированный вычислительный субстрат, созданный сверхразумом, может оказаться эффективнее, чем биологический мозг. Однако миграция в цифровую реальность будет замедляться тем, что имитационные модели не смогут считаться людьми или гражданами и соответственно не получат право на пенсию или на не облагаемый налогами сберегательный счет. В этом случае ниша для людей сохранится, наряду со все более крупной популяцией имитационных моделей и систем искусственного интеллекта.

Большинство людей будут влачить жалкое существование бездельника-рантье

Пока что все внимание было сосредоточено на судьбе наших потомков, чью жизнь могут поддерживать сбережения, пособия или заработная плата, получаемая за счет тех, кто нанимает работников-людей. Теперь переключим внимание на те сущности, которые мы до сих пор относили к капиталу: на машины, всегда принадлежавшие людям, — машины, сконструированные с целью выполнять те или иные функции и способные заменить человека в очень широком диапазоне задач. Каким будет положение этих рабочих лошадок новой экономики?

Обсуждать было бы нечего, если все эти машины остались бы автоматами, простыми устройствами вроде парового двигателя или часового механизма — такого добра в постпереходной экономике будет много, но, похоже, вряд ли кто-то заинтересуется этим бездушным набором комплектующих. Однако если у машин будет сознание — если они будут сконструированы так, что смогут осознавать свою исключительность (или им по иным причинам будет приписан моральный статус), — тогда важно включать их в мировую систему. Благополучие работников-машин окажется наиболее важным аспектом постпереходного периода, поскольку они будут доминировать количественно.

Добровольное рабство, случайная смерть


Первый напрашивающийся вопрос: работниками-машинами будут владеть как капиталом (рабами) или их станут нанимать за заработную плату? Однако при ближайшем рассмотрении возникают сомнения, что от ответа будет что-то зависеть. На то есть две причины. Во-первых, если свободный работник в мальтузианских условиях получает зарплату на уровне прожиточного минимума, в его распоряжении не остается средств после оплаты питания и других базовых потребностей. Если работник является рабом, то за его содержание платит хозяин, и все равно у раба не остается свободных средств. В обоих случаях работник получает лишь самое необходимое и ничего сверх того. Во-вторых, предположим, что свободный работник смог каким-то образом обеспечить себе доход выше прожиточного минимума (возможно, благодаря благоприятной системе регулирования). Как он потратит эту прибавку? Для инвесторов самым выгодным было бы создать виртуальных работников-«рабов», готовых трудиться за зарплату на уровне прожиточного минимума. Сделать это можно было бы, копируя тех работников, которые уже согласились на такие условия. Путем соответствующего отбора (и, возможно, некоторого изменения кода) инвесторы могли бы создать работников, которые не только предпочтут трудиться добровольно, но и решат пожертвовать своим работодателям все дополнительные доходы, если такие вдруг появятся. Однако после передачи денег работнику они по кругу вернутся к его владельцу или работодателю, даже если работник является свободным агентом, наделенным всеми юридическими правами.

Возможно, кто-то, возражая, заметит, насколько трудно создать машину, согласную добровольно выполнять любую работу или жертвующую свою зарплату своему же владельцу. Но у имитационных моделей должны быть особенно близкие людям мотивы. Обратите внимание, что если первоначальная проблема контроля, которую мы рассматривали в предыдущих главах, казалась трудновыполнимой, то сейчас мы говорим об условиях переходного периода — когда, видимо, методы выбора мотивации будут доведены до совершенства. Тем более если речь идет об имитационных моделях, то можно было бы добиться многого, просто отбирая нужные человеческие характеры. Наверное, проблема контроля будет в принципе упрощена, если предположить, что новый машинный интеллект включится в стабильную социоэкономическую матрицу, уже населенную другими законопослушными сверхразумными агентами.

Поэтому предлагаю остановиться на бедственном положении машин-работников, независимо от того, являются ли они рабами или свободными агентами. Вначале поговорим об эмуляторах, поскольку их представить легче всего.

Чтобы в мире появился новый работник-человек со своим профессиональным опытом и необходимыми навыками, потребуется от пятнадцати до тридцати лет. В течение всего этого времени человека нужно кормить, воспитывать, обучать, ему понадобится кров — все это большие расходы.

Жизнь многих работников-машин будет ограничена одним субъективным днем

Напротив, создать новую копию цифрового работника так же легко, как загрузить очередную программу в оперативную память. То есть жизнь становится дешевле. Компания может постоянно подстраивать свою рабочую силу под меняющиеся требования за счет создания новых копий — и уничтожения старых, чтобы освободить компьютерные ресурсы. Это может привести к чрезвычайно высокой смертности среди работников-машин. Жизнь многих из них будет ограничена одним субъективным днем.

Могут быть и другие причины помимо колебаний спроса, по которым работодатели или владельцы эмуляторов захотят часто убивать (отключать) своих работников. Если для нормального функционирования эмулятору мозга, как и биологическому мозгу, требуются периоды отдыха и сна, может быть дешевле стирать изнуренную имитацию в конце дня и заменять ее записанным состоянием свежей и отдохнувшей имитации. Поскольку такая процедура приводила бы к ретроградной амнезии всего выученного за день, эмуляторы, занятые выполнением задач, которые требуют формирования длительных когнитивных цепочек, смогут избежать частых стираний. Трудно писать книгу, если каждое утро, садясь за стол, не помнишь ничего из созданного накануне. Но агентов, выполняющих не столь интеллектуальные виды работ, вполне можно перезапускать, и делать это довольно часто — от единожды обученного продавца или сотрудника, обслуживающего клиентов, потребуется «удерживать» нужную информацию не более двадцати минут.

Поскольку перезапуски не позволяют формироваться памяти и навыкам, некоторые эмуляторы могут быть помещены в специальную обучающую среду, в которой они будут пребывать непрерывно, в том числе в периоды отдыха и сна, даже если их работа и не требует длинных когнитивных цепочек. При таких оптимальных условиях могли бы работать в течение долгих лет некоторые агенты по обслуживанию клиентов — причем при поддержке тренеров и экспертов по оценке производительности. Лучших учеников можно было бы использовать в качестве «племенных жеребцов», то есть по их шаблону каждый день штамповали бы миллионы свежих копий. В эти шаблоны есть смысл вкладывать большие средств, поскольку даже небольшое приумножение их продуктивности обеспечивало бы заметный экономический эффект, будучи растиражированным миллионы раз.

Параллельно с задачей обучения работников-шаблонов выполнению определенных функций огромные усилия будут прилагаться с целью совершенствования технологии их эмуляции. Успехи в этом направлении были бы даже более ценными, чем успехи в обучении индивидуальных работников-шаблонов, поскольку улучшение технологии эмуляции применимо ко всем работникам-эмуляторам (и, потенциально, к другим имитационным моделям тоже), а не только к занятым в одной определенной области. Можно направить огромные ресурсы на поиск вычислительных коротких путей, позволяющих создавать эмуляторы более эффективно, а также разрабатывать нейроморфные и полностью синтетические архитектуры ИИ. Эти исследования, вероятно, проводились бы тоже эмуляторами, запущенными на очень быстрой аппаратной основе. В зависимости от стоимости вычислительной мощности могли бы круглосуточно работать миллионы, миллиарды или триллионы имитационных моделей мозга самых проницательных исследователей-людей (или их улученных версий), раздвигая границы машинного интеллекта; некоторые из них могли бы действовать на порядки быстрее, чем биологический мозг. Это весомая причина полагать, что эра человекоподобных эмуляторов будет короткой — очень короткой по звездному времени — и что ей придет на смену неизмеримо превосходящий их искусственный интеллект.

Мы уже перечислили несколько причин, по которым работодатели эмуляторов могут периодически выбраковывать свои стада: колебания спроса на работников различного вида деятельности; экономия на времени отдыха и сна; появление новых усовершенствованных шаблонов. Еще одной причиной могут быть соображения безопасности. Чтобы имитации-работники не вынашивали враждебные планы и не плели заговоры, эмуляторы, занятые на особенно важных позициях, могли бы запускаться на ограниченное время с частым сбросом к исходному состоянию готовности.

Эти исходные состояния, к которым будут возвращать настройки эмуляторов, следует очень тщательно готовить и перепроверять. Типичный эмулятор с коротким жизненным циклом, которого оптимизировали с точки зрения его лояльности и производительности, мог бы чувствовать себя на следующее утро просто хорошо отдохнувшим. Он помнил бы, что после многих (субъективных) лет интенсивного обучения и отбора стал лучшим среди своих однокашников, что только что набрался сил в отпуске, выспался, прослушал воодушевляющую побудительную речь и бодрую музыку, и теперь ему не терпится сделать максимум возможного для своего работодателя.

Его мало беспокоят мысли о неотвратимой смерти в конце рабочего дня. Эмуляторы, страдающие страхом смерти и прочими неврозами, менее продуктивны и потому не могут быть отобраны в качестве шаблона.
Источник: www.lookatme.ru
Поделись
с друзьями!
1088
21
37
96 месяцев
Уважаемый посетитель!

Показ рекламы - единственный способ получения дохода проектом EmoSurf.

Наш сайт не перегружен рекламными блоками (у нас их отрисовывается всего 2 в мобильной версии и 3 в настольной).

Мы очень Вас просим внести наш сайт в белый список вашего блокировщика рекламы, это позволит проекту существовать дальше и дарить вам интересный, познавательный и развлекательный контент!