Използването и развитието на нови технологии във военната сфера може да доведе до катастрофални последици, пише FA. Хенри Кисинджър и Греъм Алисън сравняват този процес с ядрената надпревара от миналия век. И призовават да поемат контрола върху развитието на изкуствения интелект, преди да е станало твърде късно.
Тази година се навършват 78 години от края на най-смъртоносната война в човешката история и началото на най-дългия период в съвремието без въоръжен конфликт между велики сили. Защото само две десетилетия по-късно Първата световна война е последвана от Втората световна война. Тя стана предвестник на Третата световна война. Това включваше толкова разрушителни оръжия, че теоретично можеха да застрашат цялото човечество. И тази заплаха надвисна през последвалите десетилетия на Студената война. Когато атомното унищожаване на Хирошима и Нагасаки от Съединените щати принуди Япония да се предаде незабавно и безусловно, никой не предполагаше, че светът ще види фактически мораториум върху използването на ядрени оръжия за следващите седем десетилетия. Още по-невероятно изглеждаше, че почти осем десетилетия по-късно в света ще останат само девет ядрени сили. Лидерството, демонстрирано от Съединените щати през тези десетилетия в предотвратяването на ядрена война, забавянето на разпространението на ядрени оръжия и оформянето на международен ред, който гарантира десетилетия мир между великите сили, ще остане в историята като едно от най-значимите постижения на Америка.
Днес, когато светът е изправен пред уникални предизвикателства, породени от друга безпрецедентна и в известен смисъл дори по-ужасяваща технология – изкуственият интелект – не е изненадващо, че мнозина се обръщат към историята за насоки. Ще застрашат ли машините със свръхчовешки способности статута на човечеството като господар на Вселената? Ще подкопае ли ИИ монопола на отделните държави върху оръжията за масово унищожение? Ще позволи ли изкуственият интелект на отделни лица или малки групи от хора да създават вируси, способни да убиват в мащаб, който преди беше запазена територия само на великите сили? Може ли ИИ да унищожи ядреното възпиращо средство, което е в основата на днешния световен ред?
В момента никой не може да отговори със сигурност на тези въпроси. Но докато изследвахме тези въпроси през последните две години с група технологични лидери в челните редици на революцията на изкуствения интелект, заключихме, че перспективата неограниченото развитие на ИИ да създаде катастрофални последици за Съединените щати и света е толкова убедителна че световните лидери трябва да действат незабавно. Въпреки че нито те, нито някой знае какво крие бъдещето, ние знаем достатъчно днес, за да започнем да правим трудни избори и да предприемаме действия, осъзнавайки, че те ще бъдат обект на многократно преразглеждане, докато напредваме, откривайки все повече и повече нови неща.
Докато лидерите правят тези избори, уроците, научени в ядрената ера, могат да повлияят на техните решения. Дори нашите противници, които се стремяха да разработят и внедрят безпрецедентни технологии, които биха могли да убият стотици милиони хора, въпреки това откриха острови на общи интереси. Като две полярни държави, както Съединените щати, така и Съветският съюз имаха интерес да предотвратят бързото разпространение на такива технологии в други държави, които биха могли да ги застрашат. Както Вашингтон, така и Москва признаха, че ако ядрената технология попадне в ръцете на лоши играчи или терористи в рамките на собствените им граници, тя може да бъде използвана за заплаха за Съединените щати и Съветския съюз, и затова всеки разработи стабилни системи за сигурност за собствените си арсенали. И тъй като и двете държави могат да бъдат изложени на риск, ако вражеските нападатели се сдобият с ядрени оръжия, те смятат, че е в техен най-добър интерес да обсъдят този риск помежду си и да разработят методи и технологии, за да гарантират, че това няма да се случи. След като техните арсенали с ядрени оръжия достигнаха ниво, при което нито един от тях не можеше да атакува другия, без да причини ответен удар, който да се самоунищожи, те откриха парадоксалната стабилност на „взаимно гарантираното унищожение“. Тъй като тази ужасна реалност беше интернационализирана, всяка сила се научи да се ограничава и намери начини да убеди своя противник да ограничи военните си инициативи, за да избегне конфронтация, която може да доведе до война. Наистина, лидерите на Съединените щати и съветското правителство разбират, че предотвратяването на ядрена война, на която тяхната страна ще бъде първата жертва, е тяхната най-важна отговорност.
Предизвикателствата пред ИИ днес не са само втората глава от ядрената ера. Историята не е готварска книга с рецепти за приготвяне на суфлета. Разликите между ИИ и ядрените оръжия са толкова значителни, колкото и приликите. Въпреки това, правилно разбрани и адаптирани, уроците, научени от формирането на международен ред, който е видял почти осем десетилетия без война между велики сили, представляват най-доброто ръководство, достъпно за лидерите на страни с противоположни изкуствени интелекти.
В момента има само две суперсили в областта на изкуствения интелект: САЩ и Китай. Това са единствените държави със специалисти, изследователски институти и огромна изчислителна мощност, необходими за създаването на най-сложните модели на изкуствен интелект. Това им дава тесен прозорец от възможности да разработят препоръки за предотвратяване на най-опасните постижения и употреби на ИИ. Президентът на САЩ Джо Байдън и китайският президент Си Дзинпин трябва да се възползват от тази възможност, за да проведат среща на върха – може би веднага след срещата на Азиатско-тихоокеанското икономическо сътрудничество в Сан Франциско през ноември – където биха могли да участват в разширени, директни дискусии лице в лице за какво е това, което те трябва да считат за един от най-важните въпроси, пред които са изправени днес.
Уроци от ядрената ера
След като атомните бомби опустошиха японски градове през 1945 г., учените, които отвориха атомната кутия на Пандора, видяха какво са създали и се отдръпнаха ужасени. Робърт Опенхаймер, главен учен на проекта Манхатън, си спомни ред от Бхагавад Гита: „Сега съм станал Смърт, разрушител на светове.“ Опенхаймер стана толкова пламенен привърженик на радикалните мерки за контрол на ядрените оръжия, че беше лишен от достъп до ядрения проект. Манифестът Ръсел-Айнщайн, подписан през 1955 г. от 11 водещи учени, включително не само Бъртран Ръсел и Алберт Айнщайн, но и Линус Полинг и Макс Борн, предупреждава за ужасяващата сила на ядрените оръжия и умолява световните лидери никога да не ги използват.
Въпреки че американският президент Хари Труман никога не е изразявал съмнение относно решението си за атомни оръжия, нито той, нито членовете на неговия екип по национална сигурност са имали реална представа как тази ужасяваща технология може да бъде интегрирана в следвоенния международен ред. Трябваше ли Съединените щати да се опитат да запазят монополната си позиция като единствена ядрена сила? Беше ли това дори възможно? Може ли Съединените щати да споделят своята технология със Съветския съюз, за да постигнат тази цел? За да оцелеят в свят с тези оръжия, трябваше ли световните лидери да измислят някаква нова власт над националните правителства? Хенри Стимсън, военният министър на Труман (който току-що бе помогнал да победят Германия и Япония), предложи Съединените щати да споделят своя монопол върху атомната бомба със съветския лидер Йосиф Сталин и британския министър-председател Уинстън Чърчил, за да създадат „кондоминиум“ от велики сили, който ще предотврати разпространението на ядрени оръжия. Труман създаде комитет, председателстван от заместник държавния секретар Дийн Ачесън, за да разработи стратегия за прилагане на предложението на Стимсън.
По същество Ачесън се съгласи със Стимсън: единственият начин да се предотврати надпревара в ядрените оръжия, която може да завърши с катастрофална световна война, е да се създаде някаква международна структура, която да бъде единственият собственик на атомните оръжия. Това ще изисква Съединените щати да споделят своите ядрени тайни със Съветския съюз и други членове на Съвета за сигурност на ООН, да прехвърлят своите ядрени оръжия на нов „орган на ООН за атомно развитие“ и да забранят на всички страни да разработват атомни оръжия или да създават свои собствени способности за производство на оръжеен ядрен материал. През 1946 г. Труман изпраща финансиста и президентски съветник Бърнард Барух в ООН, за да преговаря за споразумение за изпълнение на плана Ачесън. Но това предложение беше категорично отхвърлено от представителя на СССР в ООН Андрей Громико.
Три години по-късно, когато Съветският съюз успя в бързото си усилие да създаде своя собствена бомба, Съединените щати и Съветският съюз навлязоха в това, което хората започнаха да наричат Студената война: ожесточена конкуренция, но без бомби и куршуми. Основната характеристика на това състезание беше желанието за ядрено превъзходство. В своя пик ядрените арсенали на двете суперсили включват повече от 60 000 оръжия, някои от които имат бойни глави с по-голяма експлозивна сила от всички оръжия, използвани във всички войни в известната история. Експертите спориха дали пълната ядрена война би означавала края на всяка жива душа на земята.
През десетилетията Вашингтон и Москва са похарчили трилиони долари за своите ядрени арсенали. Настоящият годишен бюджет на САЩ за атомни оръжия надхвърля 50 милиарда долара. В първите десетилетия на ядрената надпревара и Съединените щати, и Съветският съюз направиха невъобразими дотогава скокове напред с надеждата да получат решаващо предимство. Увеличаването на експлозивната мощност на атомните оръжия изисква създаването на нови единици на тяхната сила: от килотона (еквивалента на енергията, освободена от 1000 тона TNT) за първоначалните заряди, до мегатона (еквивалента на енергията, освободена от един милион тона ) за водородни термоядрени бомби. И двете страни изобретиха междуконтинентални ракети, които можеха да доставят бойни глави до цели от другата страна на планетата за 30 минути, сателити, които обикаляха земното кълбо на височина от стотици километри с камери, които можеха да определят координатите на целите с точност до няколко сантиметра, и защити, които биха могли същността на въпроса е да удариш куршум с куршум. Някои експерти сериозно са мислили за отбранителни системи, които биха направили ядрените оръжия, както каза президентът Роналд Рейгън, „безсилни и остарели“.
Концептуален арсенал
В опит да систематизират тези усилия, стратезите разработиха концептуален арсенал за разделяне на първия и втория удар. Те формулираха основните изисквания за надеждна реакция. И те разработиха ядрената триада – подводници, бомбардировачи и наземни ракети – за да гарантират, че ако противник открие слабост в един от нашите компоненти, други компоненти от арсенала ще останат на разположение за разрушителен отговор. Осъзнаването на рисковете от случайно или неразрешено изстрелване на оръжия стимулира изобретяването на ефективни системи за разрешаване – електронни ключалки, вградени в ядрени оръжия, които предотвратяват активирането им без правилните кодове за изстрелване. Бяха разработени дори резервирани системи за защита срещу технологични пробиви, които биха могли да компрометират системите за командване и контрол, което беше основата за изобретяването на компютърната мрежа, превърнала се в Интернет. Както каза стратегът Херман Кан, „Тогава си мислехме немислимото“.
Контрол върху ИИ
Има много ехо от това минало в настоящите предложения за начини за ограничаване на ИИ. Искането на милиардера Илон Мъск за шестмесечна пауза в разработването на AI, предложението на изследователя на изкуствения интелект Елиезер Юдковски да го забрани и искането на психолога Гари Маркъс той да бъде контролиран от някакъв вид световен управляващ орган, по същество повтарят неуспешни предложения от ядрената ера . Причината е, че всяка от тях ще изисква от водещите държави да подчинят своя суверенитет на наднационални структури. Никога в историята голяма сила, страхувайки се, че конкурент може да приеме нова технология, която би застрашила оцеляването и сигурността му, се е въздържала от разработването на тази технология за себе си. Дори близки съюзници на САЩ като Великобритания и Франция избраха да развият собствен национален ядрен капацитет в допълнение към разчитането на ядрения чадър на САЩ.
За да се адаптират уроците от ядрената история, за да се отговори на настоящото предизвикателство с изкуствения интелект, е важно да се признаят значителните разлики между ИИ и ядрените оръжия. Първо, докато развитието на ядрената технология беше ръководено от отделни национални правителства, създаването на AI се ръководи предимно от частни компании. Учените, работещи в Microsoft, Google, Amazon, Meta, OpenAI и няколко по-малки стартиращи компании, са далеч пред всички подобни усилия на правителството на САЩ. Нещо повече, тези компании сега са въвлечени в гладиаторска битка помежду си, което несъмнено стимулира иновациите, но което идва на висока цена. Тъй като тези частни играчи търсят предимно компромиси между печалби и рискове, те често подценяват националните интереси на конкретни държави.
Второ, ИИ днес е цифров. Ядрените оръжия бяха трудни за производство и изискваха сложна инфраструктура за извършване на всичко – от обогатяване на уран до разработване на ядрени оръжия. Ядрените продукти са физически обекти и следователно подлежат на преброяване. Но когато беше необходимо да се проверят действията на врага, веднага възникнаха ограничения. AI представлява напълно различно предизвикателство. Основната му еволюция се случва в съзнанието на хората. Той се разработва в лаборатории и е трудно да се наблюдава неговото разгръщане. Ядрените оръжия са осезаеми. Същността на изкуствения интелект е неговата концептуалност и спекулативност.
Трето, ИИ се развива и разпространява със скорост, която прави невъзможни дългосрочните преговори. Контролът върху оръжията се развива в продължение на десетилетия. Ограниченията на AI трябва да бъдат определени, преди AI да бъде вграден в структурата за сигурност на всяка нация, т.е. преди машините да започнат да поставят свои собствени цели, което според някои експерти вероятно ще се случи през следващите пет години. Това изисква дискусия и анализ първо на национално, а след това и на международно ниво. AI също така изисква нова архитектура за взаимоотношенията между правителствата и частния сектор.
За щастие, големите компании, които разработиха основен изкуствен интелект и превърнаха Съединените щати във водеща суперсила на ИИ, признават, че носят отговорност не само към своите акционери, но и към Америка и човечеството като цяло. Много от тях вече са разработили свои собствени насоки за оценка на риска преди внедряване, намаляване на пристрастията в обучението на AI и ограничаване на опасната употреба на техните модели. Други проучват начини за ограничаване на обучението за изкуствен интелект и налагане на изисквания за познаване на клиента на производителите на облачни изчислителни системи. В значителна стъпка в правилната посока инициатива, обявена от администрацията на Байдън през юли тази година, доведе ръководителите на седем големи компании за изкуствен интелект в Белия дом, за да се ангажират съвместно да разработят насоки за гарантиране на „безопасност, сигурност и доверие“.
Както един от авторите на статията – Хенри Кисинджър, отбеляза в книгата си „Ерата на изкуствения интелект“, изключително важно е да се провеждат систематични изследвания на дългосрочните последици от нововъзникващите изобретения и приложения на изкуствения интелект. Тъй като обществото в Съединените щати сега е по-разединено, отколкото дори по време на Гражданската война, мащабът на рисковете, породени от неограниченото развитие на ИИ, изисква лидерите както в правителството, така и в бизнеса да действат незабавно. Всяка компания с възможност за създаване на нови AI модели и всяка компания или изследователска организация, разработваща такива нови модели, трябва да създаде екипи, които да анализират човешките и геополитическите последици от техните бизнес операции с AI.
Този проблем е надпартиен и изисква единен отговор от нашето общество. В този дух президентът и Конгресът трябва да създадат национална комисия, съставена от изтъкнати, политически независими бивши лидери от частния сектор, Конгреса, военните и разузнавателната общност. Комисията трябва да предложи конкретни задължителни гаранции. Те трябва да включват изисквания, че новите модели на AI като GPT-4 могат да бъдат обучавани непрекъснато и че компаниите правят стрес тест за екстремни рискове, преди да пуснат нов модел. Въпреки че задачата за разработване на такива правила е сложна, комисията ще разполага с шаблон под формата на Комисията за национална сигурност по изкуствен интелект. Неговите препоръки, публикувани през 2021 г., дадоха тласък и насока на инициативи, които американските военни и разузнавателни агенции предприемат като част от тяхната конкуренция с Китай в областта на изкуствения интелект.
Две суперсили в ИИ
Дори на този ранен етап, докато Съединените щати все още изграждат своя собствена система за управление на ИИ в страната, сериозните разговори вече трябва да започнат с единствената друга суперсила на ИИ в света. Въпреки че политическата система на Китай създаде предизвикателства за развитието на ИИ, националните лидери на Китай в технологичния сектор — Baidu (водещата търсачка в страната), ByteDance (създател на TikTok), Tencent (създател на WeChat) и Alibaba (лидер в електронната търговия )—изграждат свои собствени системи на китайски – аналози на ChatGPT. И докато Китай все още изостава в напредналите полупроводникови технологии, той има всичко необходимо, за да напредне в близко бъдеще.
За тази цел Байдън и Си трябва да се срещнат възможно най-скоро за открит разговор относно контролирането на военното използване на ИИ. Срещата на Азиатско-тихоокеанското икономическо сътрудничество през ноември в Сан Франциско им предоставя тази възможност. Американските и китайските лидери трябва да обсъдят как те лично гледат на рисковете, породени от ИИ, какво прави неговата страна, за да предотврати употреби, които създават катастрофални рискове, и как страната му ще гарантира, че местните компании няма да изнасят свързаните рискове. За да информират следващия кръг от дискусии, те трябва да създадат консултативна група, състояща се от американски и китайски учени в областта на изкуствения интелект и други, които обмислят последиците от тези разработки. Този подход може да бъде моделиран на съществуваща дипломация от втори път в други области, където групите са съставени от хора, избрани въз основа на тяхната безпристрастна преценка, въпреки че не са официално одобрени от техните правителства. Въз основа на нашите разговори с водещи учени в двете страни, ние сме уверени, че тази дискусия може да бъде много продуктивна.
Дискусиите и действията на САЩ и Китай по този дневен ред ще бъдат само част от зараждащия се глобален диалог относно ИИ, включително срещата на високо равнище за сигурността на ИИ, която Обединеното кралство ще бъде домакин през ноември, и текущия диалог по въпроса в ООН. Тъй като всяка страна се стреми да използва изкуствения интелект, за да подобри живота на своите граждани, като същевременно гарантира тяхната безопасност, в дългосрочен план ще е необходима глобална рамка за неговото развитие. Работата по това трябва да започне с национални усилия за предотвратяване на най-опасните и потенциално катастрофални последици от изкуствения интелект. Тези инициативи трябва да бъдат допълнени от диалог между учени в различни страни, разработващи широкомащабни модели на ИИ, и членове на национални комисии като тази, предложена тук. Официалните правителствени преговори, първоначално между държави с напреднали програми за изкуствен интелект, трябва да имат за цел създаването на международна структура, както и международна агенция, сравнима с Международната агенция за атомна енергия.
Ако Байдън, Си Дзинпин и други световни лидери действат сега, за да се изправят срещу предизвикателствата, поставени от ИИ, толкова решително, колкото техните предшественици направиха срещу ядрените заплахи през предишните десетилетия, ще бъдат ли толкова успешни? Разглеждайки по-широката картина на историята и нарастващата поляризация на световната общност днес, е трудно да бъдем оптимисти. Въпреки това, поразителният факт, че отпразнувахме 78 години мир между ядрените сили, трябва да вдъхнови всички да посрещнат революционните и неизбежни предизвикателства на нашето бъдеще с изкуствен интелект.
Автори: Хенри Кисинджър е председател на борда на директорите на Kissinger Associates. Той е бил съветник по националната сигурност на президента на Съединените щати от 1969 до 1975 г. и държавен секретар от 1973 до 1977 г.
Греъм Алисън е професор по управление в Харвардския университет. Бивш помощник-министър на отбраната на САЩ по политиката и планирането.