четвер, 26 квітня 2018 р.

Штучний інтелект може спричинити ядерну війну - експерти


Експерти, опитані RAND Corporation, прийшли до висновку, що до 2040 року жодна з країн - членів ядерного клубу не зможе створити машину судного дня зі штучним інтелектом.
Влада країн-членів ядерного клубу розглядає наявність у них ядерної зброї гарантією безпеки / фото usa.gov
Влада країн-членів ядерного клубу розглядає наявність у них ядерної зброї гарантією безпеки / фото usa.gov Штучний інтелект до 2040 року може стати загрозою ядерної стабільності та нівелювати стратегію ядерного стримування.
До такого висновку прийшли фахівці із штучного інтелекту та ядерної безпеки, опитані дослідниками американського стратегічного дослідницького центру RAND Corporation, передає N+1.

На думку деяких фахівців, для порушення рівноваги навіть не потрібно вбудовування штучного інтелекту в ядерну зброю; саме його існування може спровокувати того чи іншого члена ядерного клубу до нанесення першого удару.
 Експерти, опитані дослідниками RAND Corporation, розділилися на кілька таборів. "Помірні" припустили, що штучний інтелект дозволить удосконалити наявні системи ядерного озброєння, але ніяк не вплине на стратегію ядерного стримування і ядерний паритет. При цьому вони прийшли до висновку, що до 2040 року для штучного інтелекту все ще буде серйозною проблемою збір і обробка розвідувальних даних про підготовку противника до застосування ядерної зброї, а також до пріоритизації цілей противника.
У свою чергу "алармісти" заявили, що штучний інтелект у будь-якому випадку становить небезпеку для ядерної стабільності. На думку цього табору експертів, одній з ядерних держав достатньо буде просто вирішити (неважливо, істинно або хибно), що штучний інтелект в системах захисту супротивника може звести нанівець удар у відповідь у разі ядерного конфлікту, щоб ця держава відмовилася від тактики другого удару і переключилася на стратегію превентивного удару, попутно почавши нарощувати ядерний арсенал.
Ще одна група експертів оголосила, що штучний інтелект в системах ядерного озброєння може бути застосований, і це може як зміцнити ядерну стабільність, так і зруйнувати її. З одного боку, країни з «розумною» ядерною зброєю і системами захисту від неї можуть вирішити, що застосування такого озброєння призведе до гарантованого взаємознищення. Це може виявитися стримуючим фактором. З іншого боку, «розумні» системи можуть дати урядам відчуття технологічної переваги, що гарантує перемогу в можливій війні. У цьому випадку ядерна війна стане реальнішою.
При цьому всі експерти, опитані RAND Corporation, прийшли до висновку, що до 2040 року жодна з країн-членів ядерного клубу не зможе створити машину судного дня із штучним інтелектом. Гіпотетична машина судного дня розглядається теоретиками як якась бойова система, здатна ініціювати відповідь на ядерний удар навіть у тому випадку, якщо керівництво країни буде знищено ядерним ударом противника. Подібна машина зазвичай розглядається в рамках стратегії гарантованого взаємного знищення.
Нагадаємо, раніше в 2017 році бізнесмен Ілон Маск заявляв, що штучний інтелект може почати третю світову війну. Пізніше він назвав цю технологію найстрашнішою небезпекою для людства.
Також, влітку минулого року глава Facebook Марк Цукерберг назвав "безвідповідальною" позицію засновника Tesla і SpaceX Ілона Маска щодо загроз, які несе людству розвиток штучного інтелекту. "Штучний інтелект зробить в майбутньому наше життя кращим, а пророкувати кінець світу дуже безвідповідально", - заявив творець Facebook.


Немає коментарів:

Дописати коментар