Вирджиния Дигнум: Хората се нуждаят от принципите на Азимов повече, отколкото машините

Вирджиния Дигнум е член на експертната група на Европейската комисия за изкуствен интелект и преподавател в Umeå University в Швеция и в Delft University of Technology, Холандия. По време на конференцията на модния гигант H&M Change Makers Lab в Берлин "Дневник" говори с нея за това защо Европа се нуждае от етичен изкуствен интелект и какви трябва да са основните принципи за развитието му.
- Ако трябва да обясните на първокласник какво работите, как ще го направите?
- Много интересен въпрос. Бих казала, че работя да карам компютрите да разбират по-добре хората, за да можем да работим заедно, за да направим живота си по-интересен, по-лесен, по-ефикасен, така че да е полезно за нас.
- По време на дискусиите споменахте, че зависимостта от данните и събирането на големи масиви информация не е пътят напред за изкуствения интелект. А какъв е той?
- Това не е единственият път напред. Трябва да разглеждаме различни подходи. Проблемът с данните е, че след като веднъж ги съберем, носим отговорност да ги държим на сигурно място, да опазим неприкосновеността, да се използват за добри цели, а не за лоши. Към данните върви и голяма отговорност. Начинът, по който трябва да ги съхраняваме, е голямо бреме за природата. Техниката се подобрява, но още са необходими много енергия и материали, които не са устойчиви, за компютрите и сървърите, където се намират данните. Повечето данни, които събираме, няма да използваме почти никога. Така че съхраняваме всичко от всекиго в това бунище за боклучави данни, в случай че някой ден ни потрябват.
Мисля, че трябва да помислим за алтернативи, с които да извличаме същите ползи, но да представяме знанието по друг начин и да открием начини за представяне на знание с данните, които имаме. Няма нужда да прегледаш 1000 снимки на времето, за да разбереш, че когато вали, земята ще се намокри. Машината трябва да изгледа всички тези снимки, но ние го знаем. Като правило, за да дадем това знание на машината, ако вали, шансът, че ще се намокрите, е висок, машината няма нужда да пази информация за милионите различни снимки на времето.
- На практика говорите за различен подход на хората към компютрите?
- Точно така. Ако учим машините, ако искаме те да разпознават шаблоните на това, което правим, за някои неща се нуждаем данни, за да се уловят разликите, но за други - не. И трябва да преценим как можем да интегрираме тези неща.
- Наскоро експерти към Европейската комисия писаха колко е важно изкуственият интелект, развиван в Европа, да бъде етичен и че това трябва да бъде първото нещо, което ще отличи ЕС от развитията в Китай и САЩ.
- Аз съм част от тази група. Етиката не е цел, а средство за създаване на изкуствен интелект, в който можем да вярваме и да знаем, че ще работи правилно и в съответствие с това, което ние смятаме за важно като общество. Етиката е един от начините. По същия начин трябва да гарантираме, че системите, които изграждаме, са в съответствие със закона. Трябва да гарантираме, че функционират правилно, че са здрави, че не се чупят и не създават хаос. Това са трите принципа: етика, законност, здравина, която трябва да работят заедно, за да гаратират, че можем да вярваме на системата на изкуствения интелект. Защото тези системи ще извършват все повече и повече неща, от които зависим. От малките неща до важните решения в живота ни минават през системи с изкуствен интелект. Така че аз поне не мисля, че това е нужно, за да отличим Европа от другите страни. Това е сфера, в която ние по традиция сме по-консервативни. Можем да направим нещата различни не само за Европа, а за целия свят, като покажем, че можем да работим по начин, който е отговорен и фокусиран върху човека и който все пак доставя добри технически и ефикасни ползи за всички.
- По начина, по който това се случи с регулациите на неприкосновеността?
- Да. От една страна, трябва да предприемем стъпки, за да гарантираме, че правилата се спазват, но, от друга страна, ползите са много големи. Ако знаем, че можем да вярваме на определена система, която ще се грижи за неприкосновеността ни, много по-спокойно ще споделяме данни.
- Говорейки за принципи, се сетих за трите закона на роботиката на Айзък Азимов. Биха ли били релеватни днес?
- В сегашния момент изкуственият интелект, поне този, който се използва и от който се печели най-много, не е интелигентност, в смисъла на това, че наистина има сложна познавателна способност, по-скоро е напреднала способност за анализ, за математика. В този случай до голяма степен контролираме какви са системите. Така че няма реална нужда да се боим, че роботите ще завземат света. Няма нужда да се притесняваме, че изкуственият интелект, който използваме днес, за да определи най-удачния начин да се разпределят дрехи (в търговската верига), ще избяга и ще започне да убива. Не мисля, че изобщо някога ще трябва да се притесняваме за това, заради начина, по който го градим.
Системите са инструменти. Разбира се, трябва да се притесняваме от това как хората биха ги използвали, но по същия начин трябва да се боим от това как биха използвали чук, оръжие или нещо друго. Можем да ги използваме за добро или за лошо. Но това зависи много повече от нас, отколкото от самия инструмент. В този смисъл мисля, че хората се нуждаят от принципите на Азимов и ако те бъдат обучени, всичко с машините ще е наред.
- По време на словото си споменахте, че "човек не е данните си". Къде е границата между това, което човек е, и данните, събрани за него?
- Данните, които хората имат за нас, са до голяма степен начинът, по който ние искаме светът да ни види. Пускаме "Фейсбук" или "Тиндър" и показваме как искаме да бъдем видени, но не задължително това, което сме наистина. В "Туитър" аз говоря за етика, отговорен изкуствен интелект, и това е изцяло различно от това, което пиша във "Фейсбук", където пиша за приятелите си, за тичане, за децата ми и за други неща. Така че трябва да сме по-наясно как позиционираме себе си и как системите за изкуствен интелект научават неща за нас.
От друга страна, става въпрос и за малките разлики между хората. Изкуственият интелект намира шаблон - всички хора, които се намират тук днес, попадат под един и същ шаблон, така че могат да бъдат използвани по определен начин, да им се даде някакво намаление в H&M. Ако започнем да туитваме за това събитие, шансът да получим това намаление, е много по-голям, отколкото за хората, които не са били тук.
Има го и факта, че нямаме достатъчно данни за всички. Има много данни за богатите хора в Европа и много по-малко за бедните хора в Африка. Не можем да генерализираме това, което знаем за хората в Берлин, за да си вадим изводи за хората в Африка. Не за да им продаваме дрехи, а и за да разберем например нещо за здравето им, за болестите, за диагностиката, от която се нуждаем. Трябва да сме наясно с тези разлики.