Hiljade učenika u Engleskoj ljuto je zbog kontroverzne upotrebe algoritma da bi se utvrdili ovogodišnji rezultati za Opšti sertifikat sekundarnog obrazovanja i A-nivo.
Đaci nisu mogli da polažu ispite zbog izolacije, pa je algoritam iskoristio podatke o školskim rezultatima iz prethodnih godina da bi odredio njihove ocene.
To je značilo da je oko 40 odsto ovogodišnjih ocena za A-nivo ispalo niže nego što je predviđeno, što ima ogromnog uticaja na ono što đaci mogu da rade nadalje tokom školovanja.
Postoje mnogi primeri kad algoritmi donose krupne odluke o našim životima, a da mi nužno ne znamo kako ili kada to rade.
Evo pregleda nekih od njih.
Na mnoge načine, društvene mreže su naprosto džinovski algoritmi.
U suštini, one izračunavaju šta vas zanima i potom vam daju još toga – koristeći onoliko podataka o vama koliko mogu da se dočepaju.
Svaki „lajk“, pregled, klik se pohranjuje. Većina aplikacija takođe uzima više podataka na osnovu vaših navika prilikom pretraživanja ili na osnovu vaših geografskih podataka. Ideja je da se predvidi sadržaj koji vi želite i da se naterate da nastavite da skrolujete – i to funkcioniše.
A ti isti algoritmi koji znaju da volite video snimke sa slatkim mačkama koriste se i da vam prodaju razne stvari.
Na osnovu svih podataka koje društvene mreže sakupe o vama mogu da se kroje oglasi samo za vas na neverovatno precizan način.
Pogledajte video o video o lažnim profilima na društvenim mrežama
Ali ovi algoritmi mogu da prave i ozbiljne greške. Pokazalo se da umeju da navode ljude ka mrziteljskom i ekstremističkom sadržaju.
Ekstremni sadržaj prosto prolazi bolje na društvenim mrežama od suptilnosti. A algoritmi to znaju.
Revizija Fejsbuka u vezi sa građanskim pravima pozvala je ovu kompaniju da uradi sve što je u njenoj moći da spreči da njen algoritam „navodi ljude ka samoosnažujućim eho komorama ekstremizma“.
A prošlog meseca smo pisali o tome kako algoritmi na onlajn maloprodajnim sajtovima – dizajnirani tako da prokljuve šta želite da kupite – promovišu rasističke i mrziteljske proizvode.
Bilo da se radi o osiguranju kuće, kola, zdravlja ili bilo kom drugom obliku osiguranja, vaše osiguravajuće društvo mora nekako da proceni šanse da će nešto stvarno poći po zlu.
Na mnogo načina, industrija osiguranja bila je pionir u korišćenju podataka iz prošlosti da odredi buduće ishode – to je osnov čitavog sektora, prema Timandri Harknes, autorki knjige Veliki podaci: Veličine jeste važna.
Zaduživanje kompjutera da to radi oduvek je bio logičan sledeći korak.
„Algoritmi mogu veoma da utiču na vaš život a da se vi kao pojedinac tu ništa ne pitate“, kaže ona.
„Svi znamo da ako promenite poštanski broj, vaše osiguranje skače ili opada.“
„To nije zbog vas, to je zato što su drugi ljudi bili skloniji ili manje skloni da postanu žrtve zločina, ili nezgode, ili čega god već.“
Inovacije kao što su „crna kutija“ koje mogu da se instaliraju u automobil da bi nadgledale kako pojedinac vozi pomogle su da se smanje troškovi osiguranja kola za pažljive vozače koji su se nalazili u grupi visokog rizika.
Da li ćemo viđati više lično skrojenih kvota osiguranja kako algoritmi budu saznavali više o našim vlastitim okolnostima?
„Kad se sve sabere i oduzme, poenta osiguranja je da se podeli rizik – i tako onda svi bace novac na gomilu a ljudi kojima je potreban ga izvuku sa te gomile“, kaže Timandra.
„Živimo u nefer svetu, tako da će svaki model koji napravite biti nefer na ovaj ili onaj način.“
Veštačka inteligencija pravi ogromne korake u postavljanju dijagnoza za različita stanja, pa čak i sugeriše smerove lečenja.
Studija objavljena u januaru 2020. godine pokazala je da je algoritam imao bolji učinak od pravih lekara kad je u pitanju otkrivanje raka dojke na osnovu mamograma.
Drugi uspesi su uključivali:
Međutim, sve ovo zahteva ogromnu količinu podataka da bi se obučili programi – a to je, iskreno govoreći, jedna prilično velika Pandorina kutija.
Britanska Informativna komisija je 2017. godine presudila da Kraljevska fondacija NHS-a nije uradila dovoljno da zaštiti podatke o pacijentima kad je podelila 1,6 miliona dosijea pacijenata sa Guglovom divizijom za veštačku inteligenciju DipMajnd.
„Vrlo je tanka linija između pronalaženja uzbudljivih novih načina da se unapredi zdravstvena nega i kretanja ispred očekivanja pacijenata“, izjavio je u ono vreme suosnivač DipMajnda Mustafa Sulejman.
Masovni podaci i mašinsko učenje imaju potencijal da izvrše revoluciju u obavljanju policijskog posla.
U teoriji, algoritmi imaju moć da ispune naučnofantastično obećanje „prediktivnog policijskog rada“ – uz pomoć podataka kao što su gde su se zločini odigravali u prošlosti, i kada i ko ih je činio, da bi predvideli gde da izdvoje policijske resurse.
Ali taj metod može da stvori algoritamske predrasude – pa čak i algoritamski rasizam.
„Ista je situacija kao ova što ste je imali sa ocenama sa ispita“, kaže Arik Čauduri iz tehnološke ekspertske grupe VebRuts Demokrasi.
„Zašto ocenjujete pojedinca na osnovu onoga što su drugi ljudi radili u prošlosti? Iste zajednice su uvek prezastupljene.“
Početkom ove godine, ekspertska grupa za odbranu i bezbednost RUSI objavila je izveštaj o algoritamskom policijskom radu.
Ona je izrazila zabrinutost povodom odsustva nacionalnih smernica ili procene uticaja. Pozvala je i na više istraživanja o tome kako bi ovi algoritmi mogli još više da raspire rasizam.
Kritikovano je i prepoznavanje lica – što je tehnika koju koriste policijske službe u Velikoj Britaniji, uključujući i Met.
Na primer, izražena je zabrinutost da li podaci koji ulaze u tehnologiju prepoznavanja lica mogu da načine da algoritam postane rasistički.
Optužba je da su kamere za prepoznavanje lica preciznije u prepoznavanju belačkih lica – prosto zato što imaju više podataka o belačkim licima.
„Pitanje je da li ga testirate na dovoljno raznolikom demografskom uzorku ljudi?“, kaže Arik.
„Ne želite situaciju u kojoj se neke grupe pogrešno identifikuju kao kriminalne zbog algoritma.“
Pratite nas na Fejsbuku iTweets by bbcnasrpskom
. Ako imate predlog teme za nas, javite se na bbcnasrpskom@bbc.co.uk
Molimo vas da se u komentarima držite teme teksta. Redakcija Južnih vesti zadržava pravo da – ukoliko ih proceni kao neumesne – skrati ili ne objavi komentare koji sadrže osvrte na nečiju ličnost i privatan život, uvrede na račun autora teksta i/ili članova redakcije kao i bilo kakvu pretnju, uvredu, nepristojan rečnik, govor mržnje, rasne i nacionalne uvrede ili bilo kakav nezakonit sadržaj.
Komentare pisane verzalom i linkove na druge sajtove ne objavljujemo. Južne vesti nemaju nikakvu obavezu obrazlaganja odluka vezanih za komentare i njihovo objavljivanje.
Mišljenja iznešena u komentarima su privatno mišljenje autora komentara i ne odražavaju stavove redakcije Južnih vesti.
Smatra se da ste slanjem komentara potvrdili saglasnost sa gore navedenim pravilima.
Administratorima Južnih vesti se možete obratiti preko Kontakt stranice.
— Komentari
0