Водещ експерт по изкуствен интелект отложи своя график за гибелта на човечеството, заявявайки, че ще отнеме повече време, отколкото първоначално е прогнозирал, за да могат системите с ИИ да кодират автономно и по този начин да ускорят собственото си развитие към суперинтелект.
Даниел Кокотайло, бивш служител на OpenAI, предизвика енергичен дебат през април, като представи "ИИ 2027" - сценарий, който предвижда неконтролирано развитие на ИИ, водещо до създаването на суперинтелект, който, след като надхитри световните лидери, унищожава човечеството.
Сценарият бързо спечели почитатели и критици. Вицепрезидентът на САЩ Джей Ди Ванс сякаш спомена "ИИ 2027" в интервю през май миналата година, когато обсъждаше надпреварата във въоръжаването на САЩ с Китай във въоръжаването на изкуствения интелект. Гари Маркъс, почетен професор по неврология в Нюйоркския университет, нарече произведението "произведение на измислица", а различни от заключенията му - "чиста научнофантастична глупост".
Графиките за трансформативния изкуствен интелект, понякога наричан AGI (изкуствен общ интелект) или ИИ, способен да замени хората в повечето когнитивни задачи, са се превърнали в неразделна част от общностите, посветени на безопасността на ИИ. Пускането на ChatGPT през 2022 г. значително ускори тези срокове, като служители и експерти прогнозираха появата на AGI в рамките на десетилетия или години.
Кокотайло и екипът му определиха 2027 г. като годината, в която ИИ ще постигне "напълно автономно кодиране", въпреки че казаха, че това е "най-вероятно" предположение и някои от тях имаха по-дълги срокове. Сега изглежда се появяват някои съмнения относно непосредствеността на AGI и дали терминът е смислен на първо място.
"Много други хора отложиха своите срокове още повече през последната година, тъй като осъзнаха колко нестабилна е производителността на ИИ", каза Малкълм Мъри, експерт по управление на риска, свързан с ИИ, и един от авторите на Международния доклад за безопасност на ИИ, пред The Guardian. "За да се случи сценарий като AI 2027, ИИ ще се нуждае от много повече практически умения, които са полезни в сложните реални условия. Мисля, че хората започват да осъзнават огромната инерция в реалния свят, която ще забави пълната обществена промяна."
"Терминът AGI е имал смисъл отдавна, когато системите с изкуствен интелект бяха много тесни - игра на шах и игра на Го", добави Хенри Пападатос, изпълнителен директор на френската организация с нестопанска цел в областта на изкуствения интелект SaferAI. "Сега имаме системи, които вече са доста общи и терминът не означава толкова много."
AI 2027 на Кокотайло се основава на идеята, че агентите с изкуствен интелект ще автоматизират напълно кодирането и научноизследователската и развойна дейност в областта на изкуствения интелект до 2027 г., което ще доведе до "експлозия на интелигентност", при която агентите с изкуствен интелект ще създават все по-умни версии на себе си и след това, в един възможен край, ще убият всички хора до средата на 2030 г., за да направят място за повече слънчеви панели и центрове за данни.
В актуализацията си обаче Кокотайло и неговите съавтори преразглеждат очакванията си за това кога изкуственият интелект може да е в състояние да кодира автономно, като посочват, че това вероятно ще се случи в началото на 30-те години на 21-ви век, а не през 2027 г. Новата прогноза определя 2034 г. като нов хоризонт за "суперинтелект" и не съдържа предположение за това кога изкуственият интелект може да унищожи човечеството.
"Нещата сякаш се развиват малко по-бавно от сценария за изкуствен интелект през 2027 г. Нашите срокове бяха по-дълги от 2027 г., когато публикувахме, а сега са още малко по-дълги", написа Кокотайло в публикация в X.
Създаването на изкуствен интелект, който може да извършва изследвания в областта на изкуствения интелект, все още е твърда цел на водещите компании за изкуствен интелект. Главният изпълнителен директор на OpenAI, Сам Алтман, заяви през октомври, че наличието на автоматизиран изследовател на изкуствен интелект до март 2028 г. е "вътрешна цел" на неговата компания, но добави: "Може напълно да се провалим в тази цел."
Андреа Кастаня, изследовател на политиките в областта на изкуствения интелект, базиран в Брюксел, заяви, че има редица сложности, които драматичните срокове на ОИИ не разглеждат.
"Фактът, че имате свръхинтелигентен компютър, фокусиран върху военна дейност, не означава, че можете да го интегрирате в стратегическите документи, които сме съставяли през последните 20 години. Колкото повече развиваме изкуствен интелект, толкова повече виждаме, че светът не е научна фантастика. Светът е много по-сложен от това."























