OpenAI сформира екип за защита на демократичните процеси в светлината на изборите в САЩ

OpenAI сформира нов екип за защита на демократичните процеси. Той ще ръководи начина, по който системите с изкуствен интелект на компанията като ChatGPT трябва да бъдат управлявани, за да се елиминират рисковете от пристрастията и други негативни фактори, оказващи деструктивно въздействие върху демокрацията, обяви финансираната от "Майкрософт" компания във вторник.
ChatGPT все повече се интегрира със съществуващи източници на информация, отбелязва се в публикацията. Потребителите могат да очакват да започнат да получават достъп до новини в реално време в световен мащаб чрез позоваване (цитиране) и връзки - нещо, което е в някаква степен е въведено в Perplexity, например. Прозрачността около произхода на информацията и балансът в източниците на новини могат да помогнат на избирателите да оценят по-добре информацията и сами да решат на какво могат да се доверят, смятат от OpenAI.
"Докато се подготвяме за избори през 2024 г. в най-големите демокрации в света, нашият подход е да продължим работата си по безопасността на платформата чрез повишаване на точната информация за гласуване, налагане на премерени политики и подобряване на прозрачността. Обединявайки експертен опит от нашите системи за безопасност, разузнаване на заплахите, правни, инженерни и политически екипи за бързо разследване и справяне с потенциални злоупотреби, ние полагаме мултифункционално усилие за защита на изборните процеси", казва се в публикацията в блога на OpenAI от 16 януари.
В Съединените щати OpenAI работи с Националната асоциация на щатските секретари (NASS) - най-старата безпартийна професионална организация за държавни служители в страната. Когато получава запитвания за определени процедурни въпроси, свързани с изборите - например къде и как се гласува, ChatGPT ще насочва потребителите към уебсайта за информация за гласуване в САЩ CanIVote.org.
"Анализа на ефективността на тази стратегия ще информират нашия подход в други страни и региони", заявяват разработчиците на ChatGPT.
В четвъртък, 18 януари, изпълнителният директор на OpenAI Сам Олтман ще вземе участие в годишната среща на Световния икономически форум в Давос, която се провежда в момента.

Давос 2024: Екстремното време и дезинформацията са основните глобални рискове
Новосформираният екип за "колективно привеждане в съответствие" е представян като продължение на работата по наскоро приключилата програма за безвъзмездни средства за финансиране на експерименти с демократичните процеси, която беше обявена през май 2023 г. В рамките ѝ OpenAI предостави безвъзмездни средства в размер на 1 млн. долара (десет гранта по 100 хил.) за идеи за управление на изкуствен интелект. Тогава установената в Сан Франциско компания обяви, че резултатите от финансираните проекти могат да формират собствените ѝ възгледи за управлението на изкуствения интелект, въпреки че препоръките няма да бъдат "обвързващи".

Изкуственият интелект като драматург на предизборните кампании в Аржентина
"Тъй като продължаваме да преследваме нашата мисия за разработването на суперинтелигентни модели, които потенциално биха могли да се разглеждат като неразделна част от нашето общество... е важно да дадем възможност на хората да предоставят информация директно", обяснява Тайна Елунду за "Ройтерс". Тя е инженер изследовател и основател на новия екип от двама души.
Така например за да гарантира, че само хора ще могат да гласуват, OpenAI би могла да си партнира с Worldcoin - проект за криптовалута, основан от Олтман, който предоставя инструмент за различаване на хората от ботовете с изкуствен интелект, казва Теди Лий, продуктов мениджър - вторият член на екипа. Лий уточнява, че екипът все още не е направил конкретни планове за интегриране на Worldcoin.
След пускането на ChatGPT от OpenAI в края на 2022 г. технологията на генеративния изкуствен интелект, завладя обществеността, превръщайки програмата в едно от най-бързо развиващите се приложения на всички времена. ChatGPT може да "произвежда" убедително звучащи текстове в най-различни жанрове и за най-различни цели от текстови заявки (prompt-ове) и да се персонализира и специализира за изпълнението на конкретни задачи.

Директорът на Института Ройтерс: Най-голямата заплаха от дезинформация са политиците
Едновременно с нарастването на популярността на ChatGPT и генераторът за изображения DALL·E 3 обаче нарастват опасенията относно способността на изкуствения интелект да създава изцяло или отчасти фалшифицирани снимки и дезинформация, особено в контекста на президентските избори в САЩ през 2024 г.
Критиците казват, че системи с изкуствен интелект като ChatGPT възпроизвеждат пристрастията от входящите данни, използвани за обучението им (и за оформяне на техните "възгледи"), а потребители и изследователи откриват и осветляват примери за расистки или сексистки резултати от дадените им заявки.
Новият екип на OpenAI активно търси да наеме изследователски инженер и учен, казва още Елунду. Екипът ще работи в тясно сътрудничество с екипа на OpenAI, който изгражда инфраструктура за събиране на човешки данни в моделите изкуствен интелект на компанията, и други изследователски екипи.

Технологии и демокрация през 2023: между прекрасния нов свят и технопаниката
"Ние редовно подобряваме нашите правила за използване за ChatGPT и приложно-програмния му интерфейс (API), научавайки повече за това как хората използват или се опитват да злоупотребят с нашата технология", казва се още в публикацията в блога на OpenAI. Това изявление е подкрепено с няколко примера за това какво прави компанията, за да ограничи риска от употребата на ChatGPT за зловредни цели:
- Все още работим, за да разберем колко ефективни могат да бъдат нашите инструменти за персонализирано убеждаване. Докато не научим повече, не позволяваме на хората да изграждат приложения за водене на политическа кампания и лобиране.
- Хората искат да знаят и да вярват, че взаимодействат с реален човек, бизнес или правителство. Поради тази причина ние не позволяваме на разработчиците да създават чатботове, които се представят за истински хора (напр. кандидати) или институции (напр. местна власт).
- Не разрешаваме създаването на приложения, които възпират хората от участие в демократични процеси - например невярно представяне на процесите и критериите за гласуване (напр. кога, къде или кой има право да гласува) или които обезсърчават гласуването (напр. твърдение, че гласуването е безсмислено) .
- С нашите нови GPT версии потребителите могат да ни докладват за потенциални нарушения.
OpenAI обещава скоро да подобри прозрачността относно произхода на изображенията, създадени чрез ChatGPT и DALL·E 3 - включително възможността за откриване кои инструменти са били използвани за създаване на изображение. В близко бъдеще компанията смята да внедри цифровите идентификационни данни на Coalition for Content Provenance and Authenticity - подход, който кодира информация за произхода на съдържанието с помощта на криптография. Провеждат се експерименти и с нов инструмент (класификатор) за откриване на изображения, генерирани от DALL·E 3.