В OpenAI някои са обезпокоени от безразсъдната надпревара в изкуствения интелект

Девет настоящи и бивши служители на създателя на ChatGPT, OpenAI, се безпокоят от "безразсъдната" надпревара за доминация в изкуствения интелект за изграждане на най-мощната система, създавана някога, разказва "Ню Йорк таймс".
Компанията, смятат те, не прави достатъчно, за да се увери, че системите са безопасни. Приоритетът според тях е върху печалбите и растежа, докато OpenAI се опитва да изгради универсален изкуствен интелект - компютърна програма, способна да направи всичко, което може и човекът. Според тях компанията с всички средства е попречила на служителите да изразят опасенията си, включително с ограничителни споразумения, които се задължават да подписват напускащите, за да не се разделят с дела си.
"Безразсъдно се състезават" за първенството в изграждането на универсален изкуствен интелект, казва за медията Даниъл Кокотаджло, бивш изследовател в отдела за управление на OpenAI и един от организаторите на групата. Отвореното ѝ писмо призовава за прозрачност и защита на хора, сигнализиращи за нередности, като в екипа са изтъкнати бивши служители. Някои са одобрили анонимно, защото все още са в компанията и се опасяват от отмъщение. В списъка са и бивш и настоящ служител на Google DeepMind.
Кампанията се води след опит за вътрешен преврат, когато Сам Олтман бе уволнен като главен изпълнителен директор поради съмнения за откровеността му, и насред битки в съда със създатели на съдържание, които я обвиняват в кражба на произведения, защитени с авторски права. Напускането на Иля Суцкевер и Ян Лайке, старши изследователи, миналия месец повдигна въпроса за рисковете от разработвания мощен изкуствен интелект. "Културата и процесите на безопасност са отстъпили на заден план пред лъскавите продукти", каза тогава Лайке; нито един от двамата не е подписал отвореното писмо.
Кога ще има универсален изкуствен интелект
Според 31-годишния Кокотаджло, част от екипа на OpenAI от 2022 г., има 50% шанс универсалният изкуствен интелект да е факт до 2027 г. Изводите си прави на базата на работата в OpenAI, като вижда колко бързо се развива; на предходната си работа, в организация за безопасност на изкуствения интелект, говори за 2050-а.

Бордът на OpenAI бил предупреден за опасно откритие, преди да уволни Олтман
Той вярва и че вероятността високо развит изкуствен интелект да унищожи или катастрофално да навреди на човечеството е 70 процента.
Дава пример как компанията не използва пълноценно протоколите си за безопасност така, че да се забави пускането на нови модели за оценка на рисковете. Спомня си как през 2022 г. "Майкрософт" започнала тихомълком да тества в Индия нова версия на своята търсачка Bing, за която някои служители на OpenAI смятали, че съдържа непублична тогава версия на GPT-4, най-съвременния голям езиков модел на OpenAI. Казали на Кокотаджло, че Microsoft не е получил одобрението на съвета за безопасност преди тестването на новия модел. След като бордът научил за тестовете - чрез поредица от сведения, че Bing се държи странно спрямо потребителите - не направил нищо, за да спре Microsoft от по-широкото му разпространение.
Първоначално говорител на "Майкрософт" отрича твърденията, но след публикуването на статията потвърждава, че бордът за безопасност на OpenAI не е прегледал нищо предварително. Кокотаджло, който не е в компанията от април, споделил с Олтман опасенията си миналата година от фокуса върху подобряване на модели за сметка на безопасността и последният се съгласил, но нищо не се променило.
В имейл до екипа си казва, че напуска, защото е уверен, че OpenAI ще се държи отговорно", докато системите ѝ се доближават до интелекта на човешко ниво. "Светът не е готов и ние не сме готови. И съм загрижен, че бързаме напред независимо от това и рационализираме действията си."

OpenAI ще обяви, че пуска конкурент на Google в търсенето
Саморегулация може да не е достатъчна
Миналата седмица OpenAI заяви, че е започнал да обучава нов водещ модел с изкуствен интелект и че формира нов комитет за безопасност и сигурност, за да проучи рисковете, свързани с новия модел и други бъдещи технологии.
Кокотаджло отказал да подпише стандартната документация на OpenAI за напускащи служители, която включваше строга клауза за недопускане на пренебрежение, забраняваща им да говорят негативни неща за компанията, за да не се отменят активите им в компанията.
Много служители биха могли да загубят милиони долари, ако откажат да подпишат. Собственият капитал на Кокотаджло струва приблизително 1.7 млн. долара, но той казва, че е готов да се откаже от всичко. Призовава заедно с други служители да не се използват такива споразумения от OpenAI и други лидери в бранша.
Според него и другите в групата обаче саморегулирането и възможността служителите да са открито критични може да не е достатъчно за подготовка на света с по-мощен изкуствен интелект. "Трябва да има някаква демократично отговорна, прозрачна управленска структура, която да отговаря за този процес. Вместо само няколко различни частни компании да се надпреварват една с друга и да пазят всичко в тайна."
