OpenAI и Meta се готвят да пуснат нови модели с изкуствен интелект , които ще имат огромни възможности за разсъждение и планиране. Meta, компанията-майка на Facebook , тази седмица обяви предстоящото издание на Llama 3 , докато поддържаният от Microsoft OpenAI намекна за пристигането на GPT-5.
„Работим усилено,
за да разберем как да накараме тези модели не само да говорят, но и да мислят, планират, имат памет“, каза Жоел Пино, вицепрезидент на Meta за изкуствен интелект.
Брад Лайткъп, главен оперативен директор на OpenAI,
подчерта напредъка към решаването на „трудни проблеми“ като логиката, сигнализирайки за промяна в пейзажа на изкуствения интелект.
„Ще започнем да виждаме изкуствен интелект, който може да поеме по-сложни задачи по по-сложен начин“, каза той пред Financial Times.
Преследването на способности за разсъждение
и планиране е критична стъпка към постигането на общ изкуствен интелект, който ще надмине човешкия интелект на всяко ниво и може да трансформира различни индустрии и света като цяло.
Изследователите предполагат, че AI моделите, които могат да разсъждават и проектират, могат да дадат възможност на чатботове и виртуални асистенти да изпълняват набор от свързани задачи, като същевременно предвиждат резултатите от техните действия.
Обръщайки се към публика на събитие в Лондон,
Ян Лекун, главен учен по изкуствен интелект в Meta, подчерта съществуващите ограничения на системите за изкуствен интелект. Ученият каза, че е важно AI моделите да могат да търсят възможни отговори, да планират последователността от необходими действия и да изградят мисловен модел, за да предвидят последствията от тези действия. Той също така добави, че Meta сега се опитва да разработи модели, които ще изпълняват сложни задачи. Meta планира да интегрира Llama 3 в широко използвани платформи като WhatsApp и продукти като смарт очилата на Ray-Ban.
Докато много потребители са развълнувани от развитието на AI,
някои експерти са загрижени за последиците от бързото развитие и приемане на AI. През февруари новият Институт за сигурност на изкуствения интелект на Обединеното кралство (AISI) предупреди за множество уязвимости в големите езикови модели (LLM), като ChatGPT на OpenAI. Неговото изследване показа, че подобни модели могат да подведат потребителите и да увековечат пристрастия, предизвиквайки тревога за недостатъчни предпазни мерки за предотвратяване на разпространението на вредна информация.
Изследователите на AISI казаха, че са успели да заобиколят предпазните мерки на големите езикови модели, използвайки само основни техники за подсказване, и предупредиха, че тези модели могат да се използват в задачи с „двойна употреба“, включително граждански и военни приложения.
Източник: Computing /Превод:SafeNews