Umělá inteligence nemusí být férová – jak to ale poznat?

Umělá inteligence | |

Umělá inteligence nemusí být férová – jak to ale poznat?

Nástroj, který lidem pomůže identifikovat a případně napravit nespravedlivé zkreslení algoritmů AI (Artifical Intelligence – umělé inteligence), vyvinula firma Accenture - cílem je zachytit diskriminaci dříve, než začne infikovat modely AI a způsobovat škodu.


Nástroj AI Fairness je součástí širšího balíčku, který firma nedávno nabídla jako podporu transparentnosti a etiky při zavádění strojového učení.  Počítačové algoritmy se dostávají do role, kdy v prvním sítu rozhodují o řadě záležitostí – dělají jakýsi předvýběr, který předkládají k dořešení „lidským“ kolegům.

A tak umělá inteligence může rozhodovat o tom, zda určitý člověk dostane půjčku, nabídku zaměstnání, případně povolení k určité činnosti. Accenture se proto v rámci aktivit zaměřených na odstranění podjatosti k AI rozhodla vytvořit nástroj, který vyhodnocuje, zda systémy AI rozhodují spravedlivě a objektivně.

Umělá inteligence sama o sobě nemůže být spravedlivá nebo nespravedlivá -- jde o to, že algoritmy, které pro rozhodování využívá, mohou kodifikovat nesprávné lidské chápání. AI Fairness je určený k rychlé identifikaci a následné pomoci při řešení problémů v algoritmech.

„Našim cílem je zpřístupnit tento nástroj společnostem, které chtějí rozšířit své používání AI, ale obávají se rizika neúmyslných dopadů,“ říká Rumman Chowdhury, lídr v oblasti umělé inteligence společnosti Accenture. „V minulosti jsme našli modely, které jsou celkově velmi přesné, ale pokud se podíváte, jak se určitá chyba rozkládá nad podskupinami, uvidíte obrovský rozdíl mezi tím, jak správný je určitý model například pro bílého muže ve srovnání s černou ženou.“

Nástroj také hledá proměnné, které souvisejí s dalšími citlivými proměnnými. Algoritmus by například nemusel explicitně zohledňovat pohlaví, ale pokud se podívá na příjem, mohl by snadno oddělit výsledky pro ženy a muže.

Vyšetřuje také míru chyb pro každou proměnnou, a zda jsou chyby vyšší pro některou skupinu. Po této analýze je nástroj schopen opravit algoritmus, ale protože tento typ korekce může způsobit snížení jeho přesnosti, navrhne řešení a umožní uživateli rozhodnout, nakolik se má změnit.

AI Fairness může najít uplatnění v různých nejen průmyslových odvětvích, přičemž se předpokládá, že prvními uživateli budou ti, kteří se nacházejí v nejvíce regulovaných oborech - například finančních služeb a zdravotní péče, kde je potenciál nežádoucích dopadů AI velký.

„Vidíme rostoucí zaměření na algoritmické zkreslení a spravedlnost. Řada států vytváří etické rady AI,  Google nedávno vydal své etické pokyny,“ konstatuje Chowdhury. „Takže si myslím, že lídři v oboru AI, stejně jako non-tech společnosti, hledají cestu. Hledají standardy a protokoly a něco, čím se mohou řídit, protože chtějí vytvářet a využívat bezpečné produkty.“


Úvodní foto: Fotolia @ willyam


Články z rubriky

Vyšel Computerworld 5/21"

Hlavní tématy čísla jsou business inteligence, umělá inteligence, podnikové systémy ERP a třeba zaké řízení dat v cloudu. Kromě jiného se i dozvíte, kdy si pomocí počítačových čipů dovedeme opravit...
více »


Nvidia Grace: 10 rychlejší výkon v AI, slibuje firma"

Nvidia se na umělou inteligenci zaměřuje dlouhodobě, a její nové CPU zaměřené na datacentra a postavené na architektuře britského Armu toho má být dalším důkazem.
více »


Deepfake geografie: Zfalšované satelitní snímky hrozí budoucími problémy"

Oheň v Central Parku nebo ohňostroj v Indii během Diwali viditelný z vesmíru – i to lze spatřit na speciálně upravených satelitních snímcích, které odborníci označují za „deepfake geografii“.
více »


Hledáme svatý grál AI konverzačních chatbotů, říká v podcastu Tomáš Zajíček ze společnosti PromethistAI"

Český start-up PromethistAI buduje globální platformu pro vývoj konverzačních robotů a zároveň vyvíjí chatboty pro pomoc lidem s duševními problémy. V podcastu Computerworldu jsme o detailech práce s umělou...
více »


Rychlejší reakce na budoucí pandemie"

To, že může kdykoliv udeřit další globální pandemie, se vědělo už před Covidem – ač se taková možnost značně podceňovala. Na příště už chce být svět připraven lépe.
více »


Související články


Tagy

AI Fairness Accenture analýza algoritmus korekce umělá inteligence

Komentáře