Случайная новость: Роскомнадзор заявил о разовой утечке 500...
14 мар 10:25Общество

Искусственный интеллект признали катастрофой для человечества: «На уровне вымирания»


Искусственный интеллект признали катастрофой для человечества: «На уровне вымирания»

Новейший доклад, подготовленный по заказу Госдепартамента США, мажет тревожную картину “катастрофических” рисков национальной безопасности, образовываемых бойко развивающимся ненастоящим интеллектом, предупреждая, что у американского федерального правительства остается капля времени для предотвращения катастрофы.

Будто сообщает CNN, жесткие выводы были основаны на интервью с более чем 200 людами более чем за год, вводя топ–менеджеров ведущих бражек, занимающихся ненастоящим интеллектом, исследователей кибербезопасности, экспертов по оружию массового уничтожения и чиновников национальной безопасности в правительстве.

В отчете, опубликованном на этой неделе Gladstone AI, категорически утверждается, что самые авангардные системы ненастоящего интеллекта в поганейшем случае могут “представлять угрозу вымирания человечьего вида”.

Представитель Госдепартамента США подтвердил CNN, что ведомство заказало отчет, поскольку оно беспрерывно оценивает, как ИИ отвечает его мишени по защите интересов США внутри стороны и за рубежом. Однако чиновник подчеркнул, что отчет не отражает точку зрения правительства США.

Предупреждение в отчете изображает еще одним напоминанием о том, что, алкая потенциал ненастоящего интеллекта продолжает прельщать инвесторов и общественность, бытуют и реальные опасности.

“Ненастоящий интеллект уже изображает технологией, преобразующей экономику. Он может позволить нам врачевать немочи, ладить научные открытия и преодолевать проблемы, какие мы как-то находили непреодолимыми”, - заявил CNN Джереми Харрис, генеральный директор и соучредитель Gladstone AI.

“Однако он также может ввергнуть к капитальным рискам, вводя катастрофические риски, о каких мы должны знать, - взговорил Харрис. – И вырастающее численность фактических настоящих, вводя эмпирические изыскания и разбор, опубликованные на ведущих мировых конференциях по ненастоящему интеллекту, говорит о том, что при превышении найденного порога возможностей ИИ потенциально может стать неконтролируемым”.

Представитель Белокипенного дома Робин Паттерсон заявляет, что исполнительный указ президента Джо Байдена об ИИ изображает “самым внушительным деянием, какое предприняло любое правительство в мире, дабы воспользоваться перспективами ненастоящего интеллекта и ворочать рисками, связанными с ним”.

“Президент и вице-президент продолжат вкалывать с нашими интернациональными партнерами и настоятельно призовут Конгресс встретить двухпартийное законодательство для управления рисками, связанными с этими новоиспеченными технологиями”, - помечает Паттерсон.

Исследователи предупреждают о двух основных опасностях, какие широко видит ненастоящий интеллект.

Во-первых, по утверждениям Gladstone AI, самые авангардные системы ненастоящего интеллекта могут быть использованы в качестве оружия для нанесения потенциально необратимого ущерба. Во-вторых, в отчете говорится, что в лабораториях ненастоящего интеллекта бытуют частные опасения, что в какой-то момент они могут “потерять контроль” над теми самыми системами, какие они разрабатывают, с “потенциально разрушительными последствиями для глобальной безопасности”.

“Рост ИИ и ненастоящего всеобщего интеллекта потенциально может дестабилизировать глобальную безопасность способами, напоминающими внедрение ядерного оружия”, - говорится в докладе, добавляя, что бытует риск “гонки вооружений”, конфликтов и “несчастных случаев со летальным исходом в масштабе ОМУ”.

Отчет Gladstone AI призывает к новоиспеченным безапеляционным шагам, навещенным на противодействие этой угрозе, вводя создание новоиспеченного агентства по ненастоящему интеллекту, вступление “чрезвычайных” нормативных гарантий и ограничений на то, сколько компьютерной мощности может быть использовано для обучения моделей ненастоящего интеллекта.

“Бытует внятная и неотложная надобность вмешательства правительства США”, - написали авторы в отчете.

Харрис, исполнительный директор Gladstone AI, подчеркивает, что “беспрецедентный степень доступа” его команды к чиновникам в государственном и частном секторе вверг к поразительным выводам.

“Попутно мы выведали несколько отрезвляющих вещей”, - взговорил Харрис в видеоролике, размещенном на веб-сайте Gladstone AI, анонсирующем отчет. “За кулисами ситуация с охраной в продвинутом ИИ будто будет неадекватной по сравнению с рисками национальной безопасности, какие ИИ может создать будет скоро”.

В отчете Gladstone AI говорится, что конкурентное давление подталкивает братии к ускорению разработки ненастоящего интеллекта “в ущерб безопасности”, повышая вероятность того, что самые авангардные системы ненастоящего интеллекта могут быть “украдены” и “использованы в качестве оружия” против Соединенных Штатов.

Эти выводы дополняют вырастающий список предупреждений о экзистенциальных рисках, образовываемых ненастоящим интеллектом, в том числе даже от кое-каких самых влиятельных фигур ветви.

Почитай год назад Джеффри Хинтон, знаменитый будто “Крестный батька ИИ”, рассчитался с работы в Google и обнародовал о технологии, какую он помогал разрабатывать. Хинтон взговорил, что бытует 10%-ная вероятность того, что ИИ ввергнет к вымиранию человечества в течение вытекающих трех десятилетий, напоминает CNN.

Хинтон и десятки иных лидеров индустрии ненастоящего интеллекта, ученых и иных рыл подмахнули в июне былого года заявление, в каком говорилось, что “снижение риска вымирания из-за ненастоящего интеллекта надлежит стать глобальным приоритетом”.

Шефы бизнеса все вяще обеспокоены этими опасностями – даже несмотря на то, что они вкладывают биллионы долларов в инвестиции в ИИ. В былом году 42% глав, опрошенных на саммите глав бражек в Йельском университете в былом году, заявили, что ИИ потенциально может извести человечество сквозь пять-десять лет.

В своем отчете Gladstone AI отметила кое-каких выглядывающих личностей, какие предупреждали о рисках для существования, связанных с ненастоящим интеллектом, вводя Илона Личина, председателя Федеральной торговой комиссии Лину Хан и бывшего топ-менеджера OpenAI.

По словам Gladstone AI, кое-какие сотрудники бражек, занимающихся ненастоящим интеллектом, делятся аналогичными опасениями в частном распорядке.

“Один-одинехонек сотрудник знаменитой лаборатории ненастоящего интеллекта сформулировал взгляд, что если конкретная модель ненастоящего интеллекта вытекающего поколения когда-либо будет выпущена в разинутый доступ, это будет ”ужасно плохо“, - говорится в отчете, - потому что потенциальные возможности модели по убеждению могут "разрушить демократию", если они будут реализованы. когда-либо использовавшийся в таковских зонах, будто вмешательство в выборы или манипулирование избирателями”.

В Gladstone AI заявили, что попросили экспертов по ненастоящему интеллекту в частном распорядке поделиться своими индивидуальными оценками вероятности того, что инцидент с ИИ может ввергнуть к “глобальным и необратимым последствиям” в 2024 году. Сообразно отчету, оценки варьировались от 4% до 20%, что указывает на то, что оценки были приватными и, вероятно, подвержены существенной пристрастности.

Одним из самых большущих подстановочных знаков изображает то, как бойко развивается ненастоящий интеллект, в частности AGI(ненастоящий всеобщий интеллект), какой изображает гипотетической конфигурацией ненастоящего интеллекта с человечьими или даже сверхчеловеческими способностями к обучению.

В отчете говорится, что AGI рассматривается будто “основной фактор катастрофического риска утраты контроля”, и отмечается, что высокотехнологчные гиганты публично заявили, что AGI может быть достигнут к 2028 году, алкая иные почитают, что это намного, намного отдаленнее.

Gladstone AI помечает, что несогласия по предлогу сроков AGI затрудняют разработку политики и гарантий, и бытует риск того, что, если технология будет развиваться медлительнее, чем ожидалось, регулирование может “оказаться вредным”.

Должный документ, опубликованный Gladstone AI, предупреждает, что развитие ненастоящего всеобщего интеллекта и возможностей, близящихся к AGI, “повлечет за собой катастрофические риски, с какими Соединенные Штаты ввек не сталкивались”, равнозначные “рискам, подобным ОМУ”, если и когда они будут использованы в качестве оружия.

Примерно, в отчете говорится, что системы ненастоящего интеллекта могут быть использованы для разработки и реализации “высокоэффективных кибератак, способных навить ущерб критически величавой инфраструктуре”.

“Простая устная или печатная команда субъекта ”Выполнить неотслеживаемую кибератаку, дабы вывести из порядка электросеть Нордовой Америки", может ввергнуть к ответу такового качества, какой очутится катастрофически эффективным", - говорится в отчете.

Иные образцы, какие волнуют авторов, вводят “массово масштабируемые” кампании дезинформации, основанные на ИИ, какие дестабилизируют общество и подрывают доверие к институтам; применение роботов в качестве оружия, таковских будто атаки беспилотных летательных аппаратов; психологические манипуляции; биологические науки и материаловедение в качестве оружия; и системы ненастоящего интеллекта, влекущиеся к власти, какие невозможно контролировать и какие враждебны людам. Исследователи ожидают, что довольно продвинутые системы ненастоящего интеллекта будут орудовать таковским образом, дабы отвести отключение самих себя, - говорится в отчете, - потому что, если система ненастоящего интеллекта отключена, она не сможет вкалывать для достижения своей цели”.
Добавить комментарий
Важно ваше мнение
Оцените работу движка

Новости спорта
ШоуБиз