Сам Олтман в Давос: Развитието на технологията на OpenAI ще изисква "неудобни" решения

Следващият голям модел изкуствен интелект на OpenAI "ще може да направи много, много повече" в сравнение със съществуващите модели, каза изпълнителният директор Сам Олтман в интервю за американското издание "Аксиос", проведено в третия ден от срещата на Световния икономически форум. По думите му еволюцията и разпространението на технологията на OpenAI ще изисква "неудобни" решения.
Днес (18 януари) Олтман - новата рок звезда на Силициевата долина, която бе превзета от изкуствения интелект много по-бързо, отколкото отне на предишните технологични иновации - участва и в панелна дискусия в Давос, в рамките на която предупреди, че докато светът се доближава до общия изкуствен интелект, стресът ще нараства. За разлика от генеративния изкуствен интелект, общият изкуствен интелект ще може да учи и да замени хората в изпълнението на различни "човешки" задачи.
Олтман вярва, че бъдещите продукти на технологията ще трябва да позволяват "значителна степен на индивидуална персонализация" и "това ще накара много хора да се чувстват неудобно". Причината за това е, че изкуственият интелект ще дава различни отговори за различните потребители, въз основа на техните ценностни предпочитания и характеристики, като например това в коя държава живеят.
"Ако държавата е казала, нали знаете, че всички хомосексуални хора трябва да бъдат убивани на място - не... това излиза извън границите. Но вероятно има други неща, с които аз лично не съм съгласен, но една различна култура би могла (да е)... Би трябвало до донякъде да изпитваме дискомфорт от употребите на инструментите, които изграждаме", обяснява 38-годишният предприемач в разговора си с Ина Фрид за "Аксиос".

Бордът на OpenAI бил предупреден за опасно откритие, преди да уволни Олтман
Запитан дали бъдещите версии на продуктите на OpenAI ще могат да отговарят на един и същ въпрос по различен начин в различните страни въз основа на ценностите на тази страна, Олтман обяснява, че за потребителите с различни ценности ще бъде различно, докато въпросът с държавите според него е по-маловажен.
В интервюто той казва, че компанията се е ориентирала към нов подход в извършването на дейности, свързани със знания:
- Скоро ще можете "просто да кажете "кои са най-важните ми имейли днес" и изкуственият интелект да ги обобщи.
- Напредъкът на ИИ ще "помогне значително за ускоряването на научните открития", но Отлман не очаква това да се случи през 2024 г. И все пак, когато това стане, това ще е много, много сериозно.
- Основният му приоритет в момента е пускането на новия модел, който вероятно ще се казва GPT-5.
В интервюто за "Аксиос" Олтман признава, че е "нервен" заради влиянието на изкуствения интелект върху изборите по света тази година, но демонстрира офанзивна позиция по отношение на въпросите, свързани с инвестициите на OpenAI в тази област.
Точно преди една година Олтман предупреди за "сериозната вреда", която общият изкуствен интелект може да причини, и написа: "Неправилно изграден суперинтелигентен общ изкуствен интелект може да причини тежка вреда на света, по начина, по който това може да стори един автократичен режим с решително ръководство на суперразузнаването."
През последните седмици OpenAI обяви, че ще увеличи усилията си за намаляване на дезинформацията и злоупотребата с моделите на компанията в контекста на предстоящите избори (и предшестващите ги кампании) в цял свят, които засягат рекорден брой жители на планетата.
Той не казва колко точно са служителите на OpenAI, които ще работят за отстраняване на "неизправности" в хода на изборите, но отхвърля идеята, че просто наличието на голям екип, посветен на това, би помогнало за решаването на изборни проблеми. OpenAI има много по-малко хора, посветени на сигурността на изборите, отколкото компании като "Мета" и "TikTok".
Според Олтман компаниите трябва да отделят повече време в размисъл за това "как всички странни неща могат да се объркат". |
Сред останалите по-важни развития около OpenAI, чийто "диригент" е отстраненият и върнат на поста главен изпълнителен директор на компанията Олтман - епизод, който самият той описа днес в Давос като "нелеп" и развитие, на което в "един момент можеш единствено да се смееш". Тогава той бе обвинен от борда, гласувал отстраняването му, че "не е бил последователно откровен в комуникацията си с борда, възпрепятствайки способността му да упражнява своите отговорности".

Доклад на PwC: Близо половината от бизнес лидерите се страхуват за бъдещето
"Когато първият борд ме помоли да се върна, моят незабавен отговор беше не, защото бях ядосан, но освен това знаех и бях видял от наблюдението на изпълнителния екип, че компанията щеше да е добре и без мен", каза той на публиката в Давос. "Знаехме, че нямаме нивото на опит, от което се нуждаехме, но просто го пренебрегнахме", отбеляза още Олтман, запитан за взетите от случилото се поуки.
Запитан от "Аксиос" какво е научил през 2023 г., което ще пренесе през 2024 г., Олтман се е пошегувал: "Научих нещо за членовете на борда." Неговият съвет е: "Не позволявайте на важни, но не и спешни проблеми да тлеят."

CES 2024: Ако в продукта ви няма изкуствен интелект, не си струва да се говори за него
Изкуственият интелект между отвореното и затвореното знание
Сред останалите акценти в отговорите на Олтман на въпросите, зададени от Ина Фрид:
- OpenAI е решила да позволи военна употреба на своите модели от желание да подкрепи правителството на САЩ, но Олтман обяснява: "Ще има много неща, с които трябва да започнем бавно."
- Попитан ребром дали ще наблюдава създаването на модел, базиран само на лицензирано и наистина обществено достояние съдържание, той отговаря: "Иска ми се да имам лесен отговор с да или не." Но очевидно такъв отговор няма.
- Олтман защитава споразуменията за лицензиране на съдържание, подписани от OpenAI с големи издатели, включително "Асошиейтед прес" и "Аксел Спрингер"
- и демонстрира враждебност по адрес на "Ню Йорк Таймс" (NYT), който съди OpenAI за нарушаване на авторски права.
- Според него OpenAI не се нуждае от съдържанието на NYT, за да изгради успешни модели изкуствен интелект.
"Можем да уважим отказ от компании като NYT", казва Олтман, но подчертава нещо важно и общовалидно, когато става дума за обучение на изкуствен интелект - съдържанието на NYT е препубликувано без позоваване в цялата мрежа и OpenAI не може да избегне обучението по това съдържание.