Hogyan változtatja meg a Big Data a mindennapi életet Amerikában?

Hogyan változtatja meg a Big Data a mindennapi életet Amerikában?
Hogyan változtatja meg a Big Data a mindennapi életet Amerikában?
Anonim

A „nagy adatok” gondolata mindenütt jelenik meg, de mi ez és mi változtatja meg az életünket? Leültünk az adattudós, a Harvard PhD és a National Book Award jelölt, Cathy O'Neil mellett, hogy megtudja.

CT: Kezdjük az alapokkal - mi is pontosan a „nagy adat”?

CO: A nagy adatok új megközelítés a dolgok előrejelzésére. Pontosabban: a „nagy adat” az véletlenszerűen összegyűjtött adatok - például a böngészőn keresztüli keresés vagy a Facebookon végzett tevékenységek - felhasználása, hogy következtetéseket vonjanak magukkal kapcsolatban, például azt, amit vásárolni fogsz, vagy milyen a politikai kapcsolat. Ez egy közvetett módszer az emberek kitalálására. Például egy kamera, amely felmérést készít nekünk, nem kérdezi: „Mit csinálsz?” - csak meglátja, mit csinálunk.

CT: És mi az algoritmus?

CO: Az algoritmusok olyan számítások, amelyek [előre értelmezik] a rólad összegyűjtött adatokat egy előrejelzés létrehozása céljából. Gondolj úgy, mint egy matematikai egyenlet, amely megpróbálja megválaszolni egy olyan kérdést, amelyet előrejelzésként fogalmaz meg, például: „Ez a személy vásárol valamit?” vagy "Ez a személy szavazni fog valakiért?"

CT: Miért hallom ennyire erről most?

CO: A „nagy adatok” elõtt a statisztikusok drága dologokkal járnának, például megkérdezzék az embereket, hogy kitalálják a jövõt. Például olyan közvetlen kérdéseket tehet fel az emberekre, mint például: „Kinek fogsz szavazni?” Most egyre inkább az „adatkitermelésre” támaszkodunk, amelyet azért nevezek az önről folyamatosan gyűjtött adatoknak, hogy következtetéseket vonjak magukról.

A „nagy adatok” elõtt a vállalatoknak csak vad kitalálások merültek fel. Most jobb, mint a vad kitalálások. Meglepő, hogy a legtöbb nagy adatalgoritmus vadul pontatlan, és nincs ok azt gondolni, hogy helyesek. De jobbak, mint a vad találgatások. És ezért indultak el a nagy adatok, mint eddig.

CT: Ha pontatlanok, akkor mit tükröznek?

CO: A hibás adatkészletekkel tápláljuk őket. Az algoritmusok nem tudnak semmit, amit elmondunk nekik. Tehát ha egyenetlen adatokkal rendelkezünk, és ezeket az algoritmushoz vagy elfogult adatokhoz adjuk, akkor azt gondoljuk, hogy ez a valóság.

Image

Ailsa Johnson / © kulturális utazás

CT: Mi egy valós példa erre?

CO: Példa lehet arra, hogy az Egyesült Államokban ötször valószínűleg feketéket tartóztatnak le dohányzásért, mint fehér embert. Ennek oka nem az, hogy a fekete emberek gyakrabban dohányoznak - mindkét csoport ugyanabban az arányban dohányzik. A fekete embereket valószínűleg sokkal inkább letartóztatják érte. Ha ezt egy algoritmushoz adjuk, amit megteszünk, akkor helyesen következtetni fog arra, hogy a fekete embereket a jövőben sokkal nagyobb valószínűséggel tartóztatják le dohányzás céljából. És akkor a fekete embereknek magasabb kockázati pontszámokat fognak adni a bűnözéshez, ami hatással van a büntetőítéletekre.

Egy másik példa egy gondolatkísérlet. A Fox News-t fogom használni, mert a Fox News-ban a közelmúltban történt kitörések a szexizmus belső kultúrájához. A kísérlet 'Mi történne, ha a Fox News megpróbálná saját adatait felhasználni gépi tanulási algoritmus felépítésére az emberek jövőbeni felvételére?'

Tegyük fel, hogy olyan embereket keresünk, akik sikeresek voltak például a Fox News-ban. Attól függ, hogyan határozná meg a siker, de általában olyan emberekre gondol, akik emeléseket, előléptetéseket kapnak vagy hosszú ideig maradnak. Ezen intézkedések bármelyikével az adatok azt tükrözik, hogy a nők nem tudnak sikert szerezni a Fox News-ban. Ha bérleti algoritmusként használják, akkor tovább terjeszti ezt a problémát. A jelentkezők körét vizsgálná, és azt mondaná: „Nem akarok nőket felvenni, mert itt nem sikerülnek. Nem jó bérlők. És nem csak a Fox News-nak kell lennie - minden vállalati kultúra torzítással rendelkezik. Amikor egy algoritmus adatot adagol, az algoritmus torzítása ezt tovább terjeszti. Folytatja a társadalomban már létező elfogultság megerősítését.

CT: Az elfogultság szándékos?

CO: Nem hiszem, hogy az adattudósok megkísérelnek szexista vagy rasszista algoritmusokat készíteni. De a gépi tanulási algoritmusok kivételesen jóak a viszonylag árnyalt minták felvételéhez és továbbterjesztéséhez. Ez nem olyan adat, amelyet a tudósok szándékosan csinálnak, de ez mégis elfogultság.

CT: Milyen szerepet játszanak a pontatlan algoritmusok a mindennapi életben?

CO: Mindenféle döntésben alkalmazzák őket az emberek életében - kezdve a főiskolán történő felvételtől a munka megszerzéséig.

Vannak algoritmusok, amelyek eldöntik, hogy a rendőrség miként fogja rendőrözni a környéket, valamint algoritmusok, amelyek eldöntik, hogy a bírók miként ítélik meg az alpereseket. Vannak algoritmusok, amelyek eldöntik, hogy mennyit fog fizetni a biztosításért, vagy milyen THM-et [kamatlábat] kap a hitelkártyáján. Vannak olyan algoritmusok, amelyek eldöntik, hogyan teljesít a munkáján, és ezek segítségével határozzák meg a béremelkedést. Minden lépésnél vannak algoritmusok, a születéstől a halálig.

CT: Szóval hol hagy minket?

CO: Ugrottunk a nagy adatkorszakba, és minden egyes problémánkkal eldobtuk az algoritmusokat, feltételezve, hogy ezeknek az algoritmusoknak méltányosabbnak kell lenniük, mint az embereknek, de valójában ugyanolyan tisztességtelenek, mint az emberek. Jobban kell tennünk.

Kattintson ide, és olvassa el Dr. O'Neil-lel készített interjúnk második részét. A matematikai pusztítás fegyverei: A nagy adatok növelik az egyenlőtlenséget és fenyegetik a demokráciát című könyve már elérhető.