Az előítélet szerint az AI megváltoztatja az amerikai életet. Mit tehetünk vele?

Az előítélet szerint az AI megváltoztatja az amerikai életet. Mit tehetünk vele?
Az előítélet szerint az AI megváltoztatja az amerikai életet. Mit tehetünk vele?

Videó: The most important lesson from 83,000 brain scans | Daniel Amen | TEDxOrangeCoast 2024, Július

Videó: The most important lesson from 83,000 brain scans | Daniel Amen | TEDxOrangeCoast 2024, Július
Anonim

Képzeljen el egy olyan világot, ahol a mesterségesen intelligens algoritmusok olyan döntéseket hoznak, amelyek befolyásolják mindennapi életét. Most képzeld el, hogy előítéletben vannak.

Ebben a világban élünk már, mondja az adattudós, a Harvard PhD és a szerző, Cathy O'Neil. (Olvassa el Dr. O'Neil-vel folytatott beszélgetésünk első részét itt). Leültünk a Nemzeti Könyvdíj jelöltjével, hogy megtudjuk, mit tehetünk az előítéletekkel a nagy adatok korában. CT: Előítéletben van az AI?

CO: Minden olyan algoritmust, amelyet kifejezetten nem tettek valóságra, feltételezhetően előítéleteket érinti. Mert emberekként előítéletekkel járunk. Ha ezt felismerjük, és ezeket az algoritmusokat saját értékeinkkel és adatainkkal készítjük, akkor nem szabad azt feltételezni, hogy valami mágikus módon történt, hogy a dolgok igazságosak legyenek. Nincs ott varázslat.

CT: Hol szerezhetik algoritmusok az adatokat?

CO: Az algoritmustól függ. Időnként a közösségi média, például a politikai piaci célzás vagy a reklám vagy a nonprofit főiskolák és a ragadozó hitelezés terén, de az adatok nagy részét nem a közösségi médiában, vagy akár az interneten gyűjtik.

Az adatgyűjtés egyre inkább kapcsolódik a valós élethez, mint például munkalehetőség, munkahelyi munka, főiskolai tanulmányok vagy börtönbe kerülés. Ezek a dolgok nem olyan dolgok, amelyeket az adatvédelmi törvényekkel megkerülhetünk. Ezek a hatalom kérdései, ahol az algoritmusok által megcélzott embereknek nincs hatalmuk, és az emberek, akik információkat gyűjtnek, algoritmusokat építenek és telepítenek, minden hatalommal bírnak. Ha büntetőjogi alperes vagy, akkor semmilyen adatvédelmi joga nincs, a munkahelyén nincs semmilyen adatvédelmi joga, és nincs sok akadálya az adatvédelmi jogoknak, ha állásra jelentkezik, mert Ha nem válaszol a jövőbeli munkáltatója által feltett kérdésekre, akkor valószínűleg nem fogja megkapni a munkát.

Az algoritmusokról és az azok által okozott káros hatásokról kevésbé kell gondolni a magánéletre és inkább a hatalomra.

CT: Mit tehetnénk, hogy jobbá váljunk?

CO: Elismerjük, hogy ezek az algoritmusok nem lényegében tökéletesek, és tesztelhetjük hibáikat. Folyamatos ellenőrzésekkel és megfigyelőkkel kell rendelkeznünk - különösen olyan fontos döntések esetén, mint például a munkavállalók bérbeadása, büntetőjogi ítéletei vagy az emberek munkahelyi értékelése - annak biztosítása érdekében, hogy az algoritmusok az általunk kívánt módon működjenek, és ne valamilyen diszkriminatív vagy tisztességtelen módon.

Image

Ailsa Johnson / © kulturális utazás

CT: Melyek a legjobb és a legrosszabb forgatókönyvek az adatközpontú jövő számára?

CO: A legrosszabb forgatókönyv az, ami most van - hogy vakon mindenki arra számítunk, hogy az algoritmusok tökéletesek lesznek, annak ellenére, hogy mára már jobban tudnunk kellene. És terjesztjük a múltbeli igazságtalanságokat és igazságtalanságokat. És továbbra is figyelmen kívül hagyjuk ezen algoritmusok hibáit.

A legjobb eset az, ha tudomásul vesszük, hogy ezek az algoritmusok nem lényegében jobbak, mint az emberek. Döntünk arról, hogy mit akarunk emberként, és mire törekszünk. Mire szeretnénk, hogy a társadalom kinézjen, és ezeket az értékeket tanítjuk. Ha ezt sikeresen megtesszük, ezek az algoritmusok jobbak lehetnek, mint az emberek.

CT: Milyen szerepet játszhat a mindennapi emberek?

CO: A legfontosabb szerepe, amelyet az egyén játszhat, az, hogy semmilyen algoritmust nem bizalommal bíznak meg. Óriási szkepticizmus. Ha egy algoritmus alapján értékelnek, kérdezd meg: „Honnan tudom, hogy ez méltányos, hogyan tudom, hogy ez hasznos, hogyan tudom, hogy pontosan? Mi a hibaarány? Kinek ez az algoritmus kudarcot vall? Megbukik-e a nők vagy a kisebbségek? Tegye fel ezt a kérdést.

A második dolog, a szkepticizmust meghaladóan, az az, hogy ha úgy gondolja, hogy egy algoritmus tisztességtelen az ön számára vagy más emberekkel szemben, akkor az az, hogy megszervezi ezeket a többi embert. Legutóbbi példa a tanárok. A hozzáadott értéket képviselő tanárok statisztikai modellje szörnyű, szinte véletlenszerű szám-generátor. De őket arra használják, hogy eldöntsék, mely tanárokat kell elbocsátani, és mit kell elbocsátani az Egyesült Államokban.

Azt javaslom számukra, hogy visszatérjenek szakszervezetükhöz. És ez történt néhány helyen. Meglepő azonban, hogy a pontozási rendszer matematikai jellege miatt milyen kevés volt az ellenállás.

CT: Hogyan kerültél be a „nagy adatokba”?

CO: A Wall Streeten dolgoztam, és belülről tanúja voltam a pénzügyi válságnak. Undorodtam attól, hogy a matematikát használják-e az emberek előnyeinek kihasználására vagy az emberek becsapására. Láttam, hogy milyen károkat okozhat a matematikai hazugság, amit „a matematika fegyvertezésének” hívok.

Úgy döntöttem, hogy elmenekülök tőle, ezért csatlakoztam az Occupy Wall Streethez, és adattudósként kezdtem dolgozni. Lassan rájöttem, hogy téves és megtévesztő hype-t látunk a megtévesztő adat-algoritmusok körül is, amelyek a Wall Street-en kívül is zajlanak, és ez sok károkat okozhat. A különbség az volt, hogy míg az egész világon az emberek észrevették a pénzügyi válságot, nem gondoltam, hogy az emberek észreveszik ezen nagy adat-algoritmusok kudarcait, mert általában egyéni szinten történnek.

Olvassa el Dr. O'Neil-vel folytatott beszélgetésünk első részét itt. Dr Cathy O'Neil, A matematikai pusztítás fegyverei: Hogyan növelik az egyenlőtlenséget és fenyegeti a demokráciát, könyve már elérhető.

Népszerű 24 óra