На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Uspei.com

47 подписчиков

Свежие комментарии

Новая угроза человечеству не дает покоя ученым: сверхразум ИИ может выйти из-под контроля и начать войну

Последние достижения в области машинного обучения сделали возможной разработку автономных роботизированных систем, в том числе военного назначения. В связи с этим в научных кругах с новой силой разгорелись дебаты о потенциальных рисках развития ИИ.

Последние исследования показали, что принимают решения, которые часто воспринимаются людьми как несправедливые, и что контроль над сверхинтеллектом вряд ли будет достигнут в долгосрочной перспективе из-за лежащих в его основе принципов.

От фантазии к реальности

Термин “” (ИИ) придумал Алан Тьюринг, британский математик и один из основателей компьютерной науки. Он начал говорить об этом еще в 1950-х годах.

Тема возвышения машин была очень популярна на протяжении более полувека, но в целом не вышла за рамки фантастических романов и фильмов. Относительно недавно, после того как цифровые технологии проникли во все сферы жизни, люди начали всерьез обсуждать экзистенциальные риски, связанные с искусственным интеллектом.

Без компьютеров и ов современные люди не смогли бы обойтись больше нескольких часов. Даже кратковременный сбой связи или отключение Интернета может привести к остановке целых отраслей промышленности, транспортному и энергетическому коллапсу.

Но то, что эксперты называют “проблемой отключения”, – не самая худшая перспектива. До тех пор, пока машины можно отключить или перепрограммировать, они будут оставаться под контролем человека. Реальная угроза возникнет, когда искусственный интеллект станет умнее нас. А люди уже очень близки к этой черте.

Умнее самых умных людей

Сегодня ИИ ирует медицинские снимки точнее, чем любой врач, оптимизирует логистические маршруты лучше, чем самый опытный диспетчер, и выполняет тысячи производственных и административных операций эффективнее, чем человек. А мощность одного суперкомпьютера по обработке и анализу информации во много раз превосходит возможности всех людей на Земле вместе взятых.

Ник Бустром, шведский философ и профессор Оксфордского университета, известный своими работами в области трансгуманизма, говорит, что наступает эра сверхразума – искусственного интеллекта, который не только “умнее лучших человеческих мозгов почти во всех областях”, но и готов взять на себя творческие функции, традиционно считавшиеся прерогативой человека. Но самое главное для сверхинтеллектуальных систем – это способность действовать самостоятельно и принимать собственные решения на основе анализа внешней информации.

Компьютерному супермозгу будет доверено управление различными процессами в производстве и логистике. Технически достичь этого несложно, но неясно, в какой степени люди смогут корректировать поведение машин и насколько велик риск того, что ИИ в какой-то момент выйдет из-под контроля. Также неясно, как концепции этики и справедливости, влияющие на принятие решений человеком, будут внедрены в компьютеры.

“Сверхумный” и “самостоятельный” автомат Калашникова

В 2015 году сотни ведущих мировых экспертов в области робототехники и искусственного интеллекта опубликовали открытое письмо в ООН с призывом запретить в Конвенции об обычных вооружениях (КНО) смертоносные автономные системы, способные самостоятельно идентифицировать и уничтожать цели без участия человека.

Петицию о запрете “роботов-убийц” подписали около 1300 ученых и экспертов, в том числе предприниматель , известный физик Стивен Хокинг, соучредитель Стив Возняк, соучредитель Skype Джен Таллин и философ-активист Ноам Хомский. Документ был обнародован в день открытия Международной объединенной конференции по искусственному интеллекту, ведущего мирового а в этой области.

“Технологии ИИ достигли того уровня, когда автономные системы могут быть развернуты в течение нескольких лет, а не десятилетий, – отмечается в письме. – И ставки очень высоки: они могут привести к третьей революции в военном деле – после пороха и ядерного оружия”.

В отличие от ядерного оружия, роботизированные системы не требуют дорогого или труднодоступного сырья. Теоретически их может создать практически любая страна. Поэтому, по мнению ученых, если вовремя не запретить этот вид оружия, оно быстро распространится, попадет в руки террористов и дестабилизирует мир.
Тем не менее, машины-убийцы на основе искусственного интеллекта продолжают разрабатываться.

Технические прототипы уже существуют. Например, автономные или полуавтономные режимы встроены в южнокорейскую патрульную пушку SGR-A1, британский боевой беспилотник Taranis компании BAE Systems и американский беспилотный противолодочный корабль Sea Hunter.

Ученые предупреждают, что рано или поздно суперинтеллект, анализируя модели действий человека, научится копировать их, а затем обходить. Точно так же, как мы со временем сможем перехитрить шимпанзе, наблюдая за их повадками. Искусственный интеллект уже играет в шахматы, шашки и другие интеллектуальные , а также создает художественные произведения на основе анализа прочитанных книг и увиденных картин. И это только начало.

Владислав Стрекопытов

Ссылка на первоисточник
наверх