Експерти, опитані RAND Corporation,
прийшли до висновку, що до 2040 року жодна з країн - членів ядерного клубу не
зможе створити машину судного дня зі штучним інтелектом.
Влада країн-членів ядерного клубу
розглядає наявність у них ядерної зброї гарантією безпеки / фото usa.gov
Штучний інтелект до 2040 року може стати загрозою ядерної стабільності
та нівелювати стратегію ядерного стримування.
До такого висновку прийшли фахівці
із штучного інтелекту та ядерної безпеки, опитані дослідниками американського
стратегічного дослідницького центру RAND Corporation, передає N+1.
На думку деяких фахівців, для
порушення рівноваги навіть не потрібно вбудовування штучного інтелекту в ядерну
зброю; саме його існування може спровокувати того чи іншого члена ядерного
клубу до нанесення першого удару.
Експерти, опитані дослідниками RAND
Corporation, розділилися на кілька таборів. "Помірні" припустили, що
штучний інтелект дозволить удосконалити наявні системи ядерного озброєння, але
ніяк не вплине на стратегію ядерного стримування і ядерний паритет. При цьому
вони прийшли до висновку, що до 2040 року для штучного інтелекту все ще буде
серйозною проблемою збір і обробка розвідувальних даних про підготовку
противника до застосування ядерної зброї, а також до пріоритизації цілей
противника.
У свою чергу "алармісти"
заявили, що штучний інтелект у будь-якому випадку становить небезпеку для
ядерної стабільності. На думку цього табору експертів, одній з ядерних
держав достатньо буде просто вирішити (неважливо, істинно або хибно), що
штучний інтелект в системах захисту супротивника може звести нанівець удар у
відповідь у разі ядерного конфлікту, щоб ця держава відмовилася від тактики другого
удару і переключилася на стратегію превентивного удару, попутно почавши
нарощувати ядерний арсенал.
Ще одна група експертів оголосила,
що штучний інтелект в системах ядерного озброєння може бути застосований, і це
може як зміцнити ядерну стабільність, так і зруйнувати її. З одного боку,
країни з «розумною» ядерною зброєю і системами захисту від неї можуть
вирішити, що застосування такого озброєння призведе до гарантованого
взаємознищення. Це може виявитися стримуючим фактором. З іншого боку, «розумні»
системи можуть дати урядам відчуття технологічної переваги, що гарантує
перемогу в можливій війні. У цьому випадку ядерна війна стане реальнішою.
При цьому всі експерти, опитані RAND
Corporation, прийшли до висновку, що до 2040 року жодна з країн-членів ядерного
клубу не зможе створити машину судного дня із штучним інтелектом.
Гіпотетична машина судного дня розглядається теоретиками як якась бойова
система, здатна ініціювати відповідь на ядерний удар навіть у тому випадку,
якщо керівництво країни буде знищено ядерним ударом противника. Подібна машина
зазвичай розглядається в рамках стратегії гарантованого взаємного знищення.
Нагадаємо, раніше в 2017 році
бізнесмен Ілон Маск заявляв, що штучний інтелект може почати третю світову
війну. Пізніше він назвав цю технологію найстрашнішою небезпекою для людства.
Також, влітку минулого року глава
Facebook Марк Цукерберг назвав "безвідповідальною" позицію засновника
Tesla і SpaceX Ілона Маска щодо загроз, які несе людству розвиток штучного
інтелекту. "Штучний інтелект зробить в майбутньому наше життя кращим, а
пророкувати кінець світу дуже безвідповідально", - заявив творець Facebook.
Детальніше читайте на УНІАН: https://www.unian.ua/science/10093343-shtuchniy-intelekt-mozhe-sprichiniti-yadernu-viynu-eksperti.html
Немає коментарів:
Дописати коментар