Повече от 350 от най-известните експерти в света на изкуствения интелект, включително създателят на ChatGPT, предупредиха за възможността технологията да доведе до краха на човечеството и неговото абсолютно изчезване.
В съвместно изявление, подкрепено от главните изпълнителни директори на водещите компании за AI, те казаха, че смекчаването на този риск „трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война“.
Много експерти изразиха загриженост относно риска модели като ChatGPT да бъдат използвани за разпространение на дезинформация и киберпрестъпления, както и за причиняване на смущения в работните места в цялото общество.
Изявлението, координирано от Центъра за безопасност на изкуствения интелект на САЩ (CAIS), признава тези опасения, но казва, че трябва да бъдат обсъдени и по-сериозни, но по-малко вероятни заплахи, включително потенциала, че ускоряването на изкуствения интелект може да доведе до колапс на цивилизацията.
Някои компютърни учени се опасяват, че свръхинтелигентен AI с интереси, които не са съобразени с тези на хората, може да ни измести или неволно да ни унищожи
Други се притесняват, че прекаленото разчитане на системи, които не разбираме, ни излага на катастрофална опасност, ако те все пак сбъркат.
Дан Хендрикс, директор на CAIS, каза, че изявлението е начин за „разкиравен“ за много изследователи
„Хората се страхуваха твърде много да говорят за това по-рано“, каза той. „Поради това този проблем се утвърждава като интелектуално достоверна загриженост.“
Сред подписалите документа са Сам Алтман, главен изпълнителен директор на OpenAI, който създаде ChatGPT, Джефри Хинтън, академик от университета в Торонто, често описван като кръстник на AI и Демис Хасабис, главен изпълнителен директор на Google Deepmind, който създава програми за побеждаване на най-добрите играчи на шах. Той беше подписан и от ръководителите на Anthropic AI, Inflection AI и Stability AI и професори по компютърни науки от Кеймбридж, Оксфорд, Харвард, Йейл и Станфорд.
Други учени отхвърлиха изявлението като безполезно. Д-р Мхайри Айткен, изследовател по етика в Института Алън Тюринг, го нарече „отвличане на вниманието“ от по-належащите заплахи, които произлизат от изкуственият интелект.
„Разказът за супер-интелигентния изкуствен интелект е познат сюжет от безброй холивудски блокбастъри и това познаване го прави завладяващ, но въпреки това е неверен“, каза тя.
Д-р Кариса Велиз, от института по етика в AI към Оксфордския университет, беше подозрителна към мотивите на някои от учените, подписали декларацията.
„Притеснявам се, че акцентът върху екзистенциалната заплаха отвлича вниманието от по-належащи проблеми, като ерозията или смъртта на демокрацията, пред които изпълнителните директори на определени компании не искат да се изправят“, каза тя. „AI може да създаде огромни разрушения без екзистенциален риск.“
Хендрикс каза, че докато онези, които подкрепят изявлението, се различават в мнението си за сериозността на риска, всички вярват, че има потенциал за катастрофа, ако с AI се борави с лоши намерения.
„Нещата се развиват изключително бързо“, каза той. „Тези програми непрекъснато надвишават нашите очаквания. В момента сме в надпревара във въоръжаването с изкуствен интелект в индустрията, където компаниите имат опасения относно безопасността, но са принудени да дадат приоритет на това да ги направят по-мощни, по-бързо.“
Притесненията относно най-сериозните заплахи от AI варират от възможността той да бъде използван от хората за проектиране на биологични оръжия до самия AI, който създава колапса на цивилизацията.
Хендрикс, който има докторска степен от Калифорнийския университет в Бъркли, каза, че се тревожи, че хората могат постепенно да загубят контрол, докато нашите ценности не се изравнят с тези на значително превъзходен интелект.
„Ние бързо ще автоматизираме света все повече и повече, давайки все повече контрол върху вземането на решения на системите. Ако корпорациите не направят това, те рискуват да бъдат изпреварени. Това, което се случва, когато AI се състезава един с друг в много интензивен времеви мащаб, е, че в крайна сметка получавате селекция от най-силните. Еволюцията не избира неща, които имат най-хубавите характеристики.“
Страхът му е, че ние „се превръщаме във второкласен вид“
Лорд Рийс от Лъдлоу, кралският астроном и основател на центъра за изследване на екзистенциалния риск към Кеймбриджкия университет, също подписа изявлението.
„Притеснявам се по-малко за някакво суперинтелигентно „поглъщане“ и повече за риска от прекомерно разчитане на широкомащабни взаимосвързани системи. Мащабните аварии на електропреносните мрежи, интернет и т.н. могат да доведат до катастрофален обществен срив“, каза той. „Цялата мрежа има нужда от регулация, точно както новите лекарства трябва да бъдат строго тествани. А регулацията е специално предизвикателство за системите, разработени от мултинационални компании, които могат да заобиколят регулациите, точно както могат да избегнат справедливо ниво на данъчно облагане.“
Хасабис вече е казвал, че би бил по-притеснен за света без перспективата за AI. Вчера DeepMind заяви, че целта му е да спечели ползите, като същевременно смекчи рисковете от изкуствения интелект.
„Изкуственият интелект ще има трансформиращо въздействие върху обществото и е важно да разпознаем потенциалните възможности, рискове и недостатъци“, каза говорител на DeepMind.
Карин Жан-Пиер, прессекретар на Белия дом, каза:
„Президентът и вицепрезидентът бяха много ясни по този въпрос“, каза тя. „Това е една от най-мощните технологии, които виждаме в момента, но за да се възползваме от възможностите, които предоставя, първо трябва да смекчим рисковете от нея и това е, върху което се фокусираме тук.“