Predsúdená AI mení americké životy. Čo s tým môžeme urobiť?

Predsúdená AI mení americké životy. Čo s tým môžeme urobiť?
Predsúdená AI mení americké životy. Čo s tým môžeme urobiť?

Video: Military robots and the future of war | P.W. Singer 2024, Júl

Video: Military robots and the future of war | P.W. Singer 2024, Júl
Anonim

Predstavte si svet, kde umelo inteligentné algoritmy robia rozhodnutia, ktoré ovplyvňujú váš každodenný život. Teraz si predstavte, že sú predsudky.

Je to svet, v ktorom už žijeme, hovorí vedec údajov, Harvard PhD a autor Cathy O'Neil. (Prečítajte si časť našej diskusie s Dr. O'Neilom). Posadili sme sa s nominantom ceny National Book Award, aby sme zistili, čo môžeme robiť s predsudkami v ére veľkých údajov. CT: Je poškodená AI?

CO: Každý algoritmus, ktorý nebol výslovne spravodlivý, by sa mal považovať za predsudok. Pretože ako ľudia sme predsudky. Ak to uznáme a vytvárame tieto algoritmy s našimi hodnotami a našimi údajmi, nemali by sme predpokladať, že by sa čokoľvek stalo, aby sa veci stali čestnými. Neexistuje žiadna mágia.

CT: Kde získajú algoritmy svoje údaje?

CO: Závisí to od algoritmu. Niekedy sú sociálne médiá také, ako je zacielenie na politický trh alebo reklama alebo ziskové vysoké školy a predátorské pôžičky - ale veľa údajov sa nezbiera na sociálnych médiách alebo dokonca online.

Zber údajov sa čoraz viac spája so skutočným životom, napríklad s hľadaním zamestnania, prácou vo vašej práci, chodením na vysokú školu alebo väzením. Tieto veci nie sú veci, ktoré môžeme obísť pomocou zákonov o ochrane súkromia. Sú to otázky moci, kde ľudia, na ktorých sú algoritmy zamerané, nemajú žiadnu moc a ľudia, ktorí zhromažďujú informácie a vytvárajú a zavádzajú algoritmy, majú všetku moc. Nemáte žiadne práva na ochranu osobných údajov, ak ste obhajcom trestného činu, nemáte vo svojom zamestnaní žiadne práva na ochranu osobných údajov a pokiaľ nemáte záujem o prácu, nemáte veľa práv na ochranu osobných údajov. Ak neodpovedáte na otázky, ktoré vám položil váš budúci zamestnávateľ, pravdepodobne túto prácu nezískate.

Mali by sme myslieť menej na súkromie a viac na moc, pokiaľ ide o algoritmy a poškodenie [môžu spôsobiť].

CT: Čo môžeme urobiť, aby sme ho vylepšili?

CO: Môžeme uznať, že tieto algoritmy nie sú vo svojej podstate dokonalé, a otestujte ich na nedostatky. Mali by sme mať prebiehajúce audity a monitory - najmä v prípade dôležitých rozhodnutí, ako sú prijímanie do zamestnania, odsúdenie trestných činov alebo hodnotenie ľudí v ich zamestnaní - aby sme sa uistili, že algoritmy konajú tak, ako im chceme, nie akýmkoľvek diskriminačným alebo nespravodlivým spôsobom.

Image

Ailsa Johnson / © Culture Trip

CT: Aké sú najlepšie a najhoršie scenáre pre budúcnosť založenú na údajoch?

CO: Najhorším scenárom je to, čo teraz máme - že všetci slepo očakávame, že algoritmy budú dokonalé, aj keď by sme už mali vedieť lepšie. A šírime minulé nespravodlivosti a nespravodlivosti. A naďalej ignorujeme nedostatky týchto algoritmov.

Najlepší scenár je, že uznávame, že tieto algoritmy nie sú vo svojej podstate lepšie ako ľudia. Rozhodujeme sa, čo chceme ako ľudia, o čo sa snažíme. Ako chceme, aby spoločnosť vyzerala a učíme tieto hodnoty. Ak to urobíme úspešne, tieto algoritmy môžu byť lepšie ako ľudia.

CT: Akú úlohu môžu hrať svetskí ľudia?

CO: Najdôležitejšou úlohou, ktorú môže jednotlivec hrať, je nedôverovať žiadnemu algoritmu. Mať obrovské množstvo skepticizmu. Ak vás hodnotí algoritmus, opýtajte sa: „Ako viem, že je spravodlivé, ako viem, že je to užitočné, ako viem, že je presné? Aká je miera chybovosti? Pre koho tento algoritmus zlyhá? Zlyháva to žena alebo menšina? “ Opýtajte sa na druh otázky.

Druhá vec, okrem skepticizmu, je, že ak si myslíte, že algoritmus je voči vám alebo iným ľuďom nespravodlivý, je zorganizovať sa s týmito ľuďmi. Posledným príkladom sú učitelia. Štatistické modely o učiteľoch s pridanou hodnotou sú hrozné generátory takmer náhodných čísel. Boli však zvyknutí rozhodovať o tom, čo učitelia majú dostať do zamestnania a ktorí učitelia by mali byť prepustení po celom USA.

Navrhujem im, aby sa pripojili k jednote. A to sa stalo na niektorých miestach. Je však prekvapujúce, aký malý odpor tu bol kvôli matematickej povahe bodovacieho systému.

CT: Ako ste sa dostali k „veľkým údajom“?

CO: Pracoval som na Wall Street a bol som svedkom finančnej krízy zvnútra. Bol som znechutený tým, ako sa matematika používala na to, aby sa ľudia buď využívali, alebo aby oklamali ľudí. Videl som druh poškodenia, ktoré by mohlo vyplynúť z matematických lží, ktoré nazývam „zbrojenie matematiky“.

Rozhodol som sa od toho odísť, tak som sa pripojil k Occupy Wall Street a začal pracovať ako vedec údajov. Pomaly som si uvedomil, že vidíme chybné a zavádzajúce humbuk okolo klamlivých dátových algoritmov, ktoré sa odohrávajú aj mimo Wall Street, a že to povedie k veľkému poškodeniu. Rozdiel bol v tom, že zatiaľ čo si ľudia na celom svete všimli finančnú krízu, nemyslel som si, že by si ľudia všimli zlyhania týchto algoritmov veľkých dát, pretože sa zvyčajne vyskytujú na individuálnej úrovni.

Prečítajte si časť našej diskusie s Dr. O'Neilom tu. Kniha Dr Cathy O'Neil Zbrane matematického ničenia: Ako veľké dáta zvyšujú nerovnosť a ohrozujú demokraciu, je teraz k dispozícii.