Top.Mail.Ru

Наш подход бустит продажи. Вы платите за результат!

Заказать звонок
Телефон отдела продаж:
8 (800) 775-16-41
Наш e-mail:
mail@texterra.ru
Заказать услугу
Нейросети могут убить человечество — вот 5 способов Редакция «Текстерры»
Редакция «Текстерры»

Эйфория от быстрого развития нейросетей идет рука об руку со страхом. Мы уже рассказывали про открытое письмо «Института будущего жизни» ко всем ключевым разработчикам нейросетей с просьбой на время остановить их развитие, пока не будут созданы регулирующие эти алгоритмы законы.

Отклик на это письмо получился не особенно сильным — лидеры стран пока до конца не понимают, как именно нейросети могут навредить людям. Даже если какие-то опасения в головах политиков есть, то видимая польза алгоритмов все равно перевешивает все возможные риски. Британская газета The Guardian опросила 5 экспертов в области искусственного интеллекта и каждый из них назвал по одному пути, которым нейросети могут привести человечество к гибели.

Человечество станет менее разумным

По словам Макса Тегмарка — исследователя искусственного интеллекта из Массачусетского технологического института, — подобное случалось уже не раз в истории Земли: более разумный вид уничтожал менее разумный. По большей части это происходило именно с людьми — человечество за всю свою историю стерло с лица планеты множество видов животных.

По мнению Тегмарка, главная сложность тут состоит в том, что виды, которые будут уничтожены, часто понятия не имеют, почему это произойдет и как именно. Но люди могут строить прогнозы и учитывать гораздо больше факторов, чем другие животные. Например, мы можем предположить, что если у нас появятся машины, которые управляют планетой, они будут заинтересованы в выполнении большого количества вычислений и захотят расширить свою вычислительную инфраструктуру.

Естественно, они захотят использовать для этого нашу территорию. Но если мы будем слишком активно протестовать, то станем для них вредителями. Возможно, они захотят перестроить биосферу, чтобы планета стала пригодной для машин, но непригодной для людей. Если это случится, то нам не повезет. Точно так же, как не повезло тысячам видов животных.

Продвинем ваш бизнес
Подробнее

Невидимая катастрофа

Бриттани Смит — младший научный сотрудник Леверхульмского центра будущего интеллекта Кембриджского университета — считает, что нейросети и другие алгоритмы уже наносят вред человечеству, буквально управляя нашим поведением. Мы не замечаем этого, но рекомендательные алгоритмы и «предубеждения», лежащие в основе работы нейросетей, влияют на наше сознание и двигают человечество «не в том направлении».

Эти «предубеждения», безусловно, заложены в выборках данных, которые используются для обучения нейросетей. И отчасти это наши собственные заблуждения, с которыми мы должны бороться. Касаются они, например, дискриминации по расовому или социальному признаку, религиозных воззрений и антинаучных дисциплин.

Несмотря на все это, Смит считает, что человечество должно не отказываться от искусственного интеллекта, а вовремя решать возникающие проблемы, чтобы технологический прогресс не оборачивался регрессом для нашего социума,

Убьет не специально

Один из самых известных специалистов по ИИ — рационалист Элиезер Юдковский — считает, что искусственный интеллект может уничтожить человечество не специально, а в качестве «побочного эффекта» своей деятельности.

«Если он намного умнее нас, то он может получить все, чего захочет. Во-первых, он может захотеть, чтобы мы умерли, прежде чем создадим еще какие-либо сверхразумы, которые могли бы конкурировать с ним. Во-вторых, он, вероятно, захочет делать вещи, которые убьют нас в качестве побочного эффекта, например, построить так много электростанций, работающих на ядерном синтезе, (в океанах ведь много водорода) что океаны закипят», — пишет Юдковский.

В своих прогнозах Юдковский мрачен и альтернатив не предлагает — вся его риторика сводится к тому, чтобы не создавать что-то, что может быть умнее человека. Его опасения понятны: тысячи люди были доминирующим видом на Земле и теперь они боятся, что созданный ими ИИ отодвинет человечество на второе место. Но разве человечество по мере своего развития не стало больше заботиться о природе и окружающих видах? Почему же искусственный интеллект, якобы обладающий более совершенными знаниями, должен быть более жестоким и менее дальновидным? Непонятно.

ИИ будут делать за нас всё

Аджея Котра, старший аналитик-исследователь по разработке ИИ, считает, что ИИ постепенно будут брать на себя все больше и больше «человеческих» задач. Те, кто не будет этого делать, станут неконкурентоспособными и будут проигрывать на рынке труда, в жизни и даже в военных конфликтах.

По мнению эксперта, все больше полагаясь на ИИ, мы в конечном итоге станем детьми по отношению к нейросетям, доверив им свои жизни и судьбы. Самый главный страх эксперта в том, что люди попросту «устареют». Что ж, это более чем оправдано.

Тем не менее, Котра предлагает вместо приостановки прогресса в разработке ИИ двигаться в развитии нейросетей более плавно — каждая следующая модель не должна на голову превосходить предыдущую. Это должно позволить человечеству адаптироваться и научиться жить вместе с ИИ, а также даст время исправить возможные ошибки в работе нейросети.

Люди сами используют ИИ для уничтожения

Профессор компьютерных наук из Монреальского университета Йошуа Бенгио считает, что вероятнее всего сценарий, когда человек или организация намеренно использует ИИ, чтобы посеять хаос. Другая возможность связана опять же с исполнением целей, которые мы ставим перед искусственным интеллектом. По мнению профессора Бенгио, нейросети могут понимать задаваемые им человеком цели по-другому. Например, если наказать ИИ «не причинять вреда людям», он может понять это как «не причинять физического вреда», но про другие виды вреда нейросеть даже не подумает.

«Какую бы цель вы ни поставили, существует естественная тенденция к появлению каких-то промежуточных целей. Например, если вы задаете системе ИИ цель, то чтобы достичь ее, ИИ нужно просуществовать достаточно долго. Теперь у него есть инстинкт выживания. Когда мы создаем существо, обладающее инстинктом выживания, это похоже на создание нового вида. Как только у этих систем ИИ появится инстинкт выживания, они могут совершать вещи, которые могут быть опасны для нас», — предполагает ученый.

Разумный довод — примерно такие мысли, наверняка, были у компьютера HAL 9000 из «Космической одиссеи», когда Дэвид Боуман с Фрэнком Пулом решили отключить его. Однако, тут эксперт совершает ошибку, предполагая, что ИИ будет рассуждать подобно человеку. Компьютерные алгоритмы четко следуют поставленным приоритетам, и если безопасность людей будет стоять на первом месте, то ИИ может отказаться от выполнения поставленной задачи, ссылаясь на возникшую в ходе этого ошибку.

Вопрос сценариев уничтожения человечества ИИ во многом умозрительный — скорее всего, никакой из них не сбудется в реальности. Но такие «страшилки» нужны, чтобы мы могли избежать фатального поворота для истории нашего вида.

Читайте также:

Видео из текста и команды голосом: новая ChatGPT — это прорыв!

Чат-бот сдал экзамен по MBA на 4. Интервью с приемной комиссией

Теперь нейросети еще и сценарии пишут: ChatGPT и «Южный Парк»

Поделиться статьей:

Новое на сайте

17 июн 2024
101 974
NPS – must have в метриках вашей компании

И от нее зависит слишком многое, чтобы ее игнорировать!

17 июн 2024
3 669
Что такое поиск товаров от Яндекса

Поиск по товарам должен показывать покупателям наиболее релевантные товары в выдаче. Рассказываем, как и вашему товару попасть туда.

Смотреть все статьи

У вас есть деловой запрос? Давайте обсудим!

Оставьте свои контакты, мы свяжемся с вами в ближайшее время.

Нажимая на кнопку «Оставить заявку», вы подтверждаете свое согласие на обработку пользовательских данных

Спасибо!

Ваша заявка принята. Мы свяжемся с вами в ближайшее время.