20.8 C
Torino
sabato, 27 Luglio 2024

Il “Rap­por­to di mino­ran­za”: l’algoritmo del con­trol­lo socia­le

Nel 1956 vie­ne pub­bli­ca­to un bre­ve rac­con­to del­lo scrit­to­re Phi­lip K. Dick, “The mino­ri­ty report” (da cui nel 2002 fu trat­to il film di Spiel­berg Mino­ri­ty Report), in cui è descrit­to un futu­ro dove la mag­gior par­te del­le azio­ni cri­mi­na­li è sta­ta eli­mi­na­ta gra­zie alla poli­zia Pre­ci­mi­ne, che uti­liz­za dei veg­gen­ti in gra­do di pre­ve­de­re i cri­mi­ni pri­ma che pos­sa­no esse­re com­mes­si.

Cin­quan­ta anni dopo il rac­con­to di P. K. Dick, nel 2006, P Jef­frey Bran­tin­gham, docen­te di antro­po­lo­gia alla UCLA di Los Ange­les, insie­me a mate­ma­ti­ci, cri­mi­no­lo­gi ed esper­ti d’informatica, svi­lup­pa un algo­rit­mo per la pre­vi­sio­ne del cri­mi­ne: Pred­Pol.

Il meto­do del­le pre­vi­sio­ni di Pred­Pol s’ispira a quel­lo del­le gran­di cor­po­ra­te inter­net, come per esem­pio Ama­zon, che rie­sce ad aggre­ga­re i suoi clien­ti in grup­pi basa­ti su model­li d’acquisto, per poter in segui­to pro­por­re libri o altri ogget­ti da acqui­sta­re. Que­sto meto­do, oltre a pre­ve­de­re il com­por­ta­men­to, inco­rag­gia e pla­sma l’atteggiamento futu­ro del clien­te. Que­sti algo­rit­mi sono anche uti­liz­za­ti dagli emit­ten­ti del­le car­te di cre­di­to, per indi­vi­dua­re i clien­ti insod­di­sfat­ti, ma anche dal­le gran­di com­pa­gnie di assi­cu­ra­zio­ni, che li usa­no nell’ambito del­la sani­tà pri­va­ta, in modo da pre­ve­de­re di qua­li ser­vi­zi medi­ci, i loro clien­ti, potreb­be­ro ave­re biso­gno nel futu­ro. Que­sti ele­men­ti met­to­no in luce una pro­fon­da rela­zio­ne che esi­ste tra la sor­ve­glian­za com­mer­cia­le e quel­la socia­le.

Il siste­ma Pred­Pol è sta­to spe­ri­men­ta­to a San­ta Cruz, e ha dato un risul­ta­to di una ridu­zio­ne del 27% dei fur­ti rispet­to allo stes­so perio­do dell’anno pre­ce­den­te, men­tre a Los Ange­les il siste­ma ha fat­to scen­de­re le aggres­sio­ni del 33% e i cri­mi­ni vio­len­ti del 21%.

PredPol - Social Media e DataveillanceIl bel­lo di que­sto siste­ma è che non c’è biso­gno dell’arresto in fla­gran­za di rea­to, basta­no degli agen­ti nel luo­go dove sono pre­vi­sti i rea­ti, e magi­ca­men­te si fa un’opera di pre­ven­zio­ne. Il risul­ta­to è meno rea­ti, meno pro­ces­si, meno per­so­ne nel­le car­ce­ri insom­ma meno costi … il mas­si­mo del rispar­mio, una vera eco­no­mia del­la repres­sio­ne. Mol­to pro­ba­bil­men­te sarà que­sto il risul­ta­to su cui i soste­ni­to­ri del­la neu­tra­li­tà tec­no­lo­gi­ca foca­liz­ze­ran­no la loro, e cer­che­ran­no di con­cen­tra­re anche la nostra atten­zio­ne, mostran­do di igno­ra­re come la scien­za pos­sa esse­re la raf­fi­gu­ra­zio­ne dell’intelligenza del Capi­ta­le e diven­tar­ne uno straor­di­na­rio stru­men­to di con­trol­lo e sfrut­ta­men­to.

E, si chie­de giu­sta­men­te E. Moro­zov nel suo libro “Inter­net non sal­ve­rà il mon­do”, «Ma come fac­cia­mo ad accer­tar­ci che gli algo­rit­mi impe­gna­ti per le pre­vi­sio­ni non riflet­ta­no i pre­giu­di­zi dei loro crea­to­ri? Per esem­pio, i rea­ti ven­go­no per­lo­più com­mes­si in zone pove­re e mul­tiet­ni­che. Gli algo­rit­mi – con la loro pre­sun­ta obiet­ti­vi­tà – non potreb­be­ro raf­for­za­re ulte­rior­men­te i pre­giu­di­zi raz­zia­li?»

Que­sta pro­fi­la­zio­ne degli indi­vi­dui che la sor­ve­glian­za (sia com­mer­cia­le sia cri­mi­na­le) effet­tua, por­ta al rischio dell’individuazione di grup­pi di sog­get­ti accu­mu­na­ti da pro­fi­li simi­li, che pos­so­no diven­ta­re il pre­sup­po­sto di quel­lo che Gary T. Marx defi­ni­sce «sospet­to cate­go­ria­le».

Gary T. Marx, nel­la sua ana­li­si sui meto­di uti­liz­za­ti dal­la poli­zia sta­tu­ni­ten­se per la solu­zio­ne dei cri­mi­ni, ha evi­den­zia­to mol­ti esem­pi di sospet­ti cate­go­ria­li, come per esem­pio, appar­te­ne­re ad una etnia con­si­de­ra­ta ad alto tas­so di cri­mi­na­li­tà, l’abitare in zone degra­da­te del­la cit­tà, l’aver effet­tua­to spe­se straor­di­na­rie sopra il pro­prio sti­le di vita: tut­ti que­sti dati diven­ta­no un sospet­to aprio­ri­sti­co su inte­ri grup­pi di cit­ta­di­ni.

Que­ste nuo­ve for­me di con­trol­lo non si limi­ta­no più a puni­re o vede­re ciò che un indi­vi­duo fa, ma cer­ca­no di pre­ve­de­re quel­lo che potrà fare. Que­sto fa si che il pro­ble­ma si spo­sti dal sor­ve­glia­re e con­trol­la­re, al diri­ge­re il com­por­ta­men­to su stra­de pre­sta­bi­li­te come avvie­ne, nel­la pra­ti­ca, con gli algo­rit­mi uti­liz­za­ti dal mar­ke­ting.

Que­sti algo­rit­mi più che a logi­che mate­ma­ti­che rispon­do­no alle esi­gen­ze del Capi­ta­le per un con­trol­lo socia­le dif­fu­so e meno inva­si­vo rispet­to ad altri meto­di, e che spo­sta­no la cosid­det­ta opi­nio­ne pub­bli­ca ad accet­tar­li nel nome del­la sicu­rez­za.

Articoli correlati