Accés àrea privada col·legiats


Introdueixi les seves dades d'accés:


Ha oblidat la seva contrasenya?

MENÚ
INFORMACIÓ DE SEUS

Notícies i actualitat


Llums i ombres de la Intel·ligència Artificial aplicada a la justícia

Notícies Jurídiques


09 GEN 2020


La Intel·ligència Artificial aplicada al sistema judicial, és a dir, el treball dels algorismes que prediuen les possibilitats de reincidència dels delinqüents i les seves fiances econòmiques per a romandre en llibertat, no és una tècnica fiable, segons l'informe que ha publicat «Partnership on AI».

Aquest és un consorci de la indústria de la tecnologia centrat en establir les millors pràctiques per als sistemes de IA i a informar i educar al públic sobre aquesta nova tècnica que envaeix les nostres vides amb passes de gegant.

Els intents dels Estats Units de reduir la població carcerària a través de prediccions informàtiques del comportament dels delinqüents es basen en una comprensió errònia i podrien reforçar els prejudicis existents, segons van concloure els experts en intel·ligència artificial que van elaborar l'informe de Partenariat on AI.

Com a resultat, les eines basades en algorismes «no han d'usar-se soles per a prendre decisions sobre la detenció o continuïtat d'aquesta”.

Encara que el programa s'aplica fins al moment en alguns Estats dels Estats Units, les forces policials de Regne Units també tenen un gran interès en eines informatitzades d'avaluació de riscos basades en la intel·ligència artificial.

A pesar que l'objectiu final és positiu, ja que es tracta d'eliminar els prejudicis en les avaluacions a l'hora d'estimar si un pres va o no a escapolir-se durant la seva llibertat condicional a l'espera de judici, no obstant això es qüestiona si els algorismes són l'instrument adequat per al treball.

«És un greu malentès pensar que les eines són objectives o neutrals simplement perquè estan basades en dades», assenyala l'informe.

«Si bé les fórmules i els models estadístics proporcionen cert grau de consistència i replicabilidad, encara comparteixen o amplifiquen moltes febleses de la presa de decisions humanes».


Els algorismes aplicats a les decisions judicials no estan molt aconseguits, fins ara.


LA “FAL·LÀCIA ECOLÒGICA”


Un problema bàsic és la «fal·làcia ecològica», també coneguda com a “fal·làcia d'ambigüitat per divisió”, una mala interpretació de les dades estadístiques que es produeix quan les dades recopilades sobre un grup s'apliquen perquè el sistema pugui predir el comportament d'un individu concret: el que comunament coneixem com a estereotips i que afecten la raça, religió, classe, etc.

L'informe estableix també una sèrie de requisits que les jurisdiccions han d'avaluar abans d'adoptar una decisió mitjançant algorisme, entre altres l'aplicació de mètodes per a mesurar i mitigar els errors.

No obstant això, fins i tot complint amb tots els requisits, els experts continuen preguntant-se si resulta acceptable prendre decisions sobre la llibertat d'una persona basant-se en dades sobre altres individus.

“L'ús d'eines d'avaluació de riscos per a prendre decisions justes sobre la llibertat humana requeriria resoldre profunds desafiaments ètics, tècnics i estadístics, la qual cosa inclou garantir que les eines es dissenyin i construeixin per a mitigar els errors i trobar els protocols adequats”.

Les eines actualment disponibles han de complir primer amb els requisits bàsics recomanats per l'informe i en cas contrari no han d'utilitzar-se.

Els requisits de l'informe “representen un estàndard mínim per als desenvolupadors i formuladores de polítiques que intenten alinear les seves eines d'avaluació de riscos, i com s'usen en la pràctica, amb objectius de polítiques ben fundats «.

L'organització autora de l'estudi, Partenariat of AI, està compost per més de 80 grups i companyies nord-americanes, incloent Accenture, ACLU, Berkman Klein Center en la Universitat d'Harvard, Google, IBM, Samsung, Sony, entre altres.


MINORITY REPORT FET REALITAT


En «Minority Report», la pel·lícula dirigida per Steven Spielberg i basada en un relat de ciència-ficció de Philip K. Dick, la delinqüència s'elimina gairebé totalment gràcies a les visions de tres mutants que prediuen els delictes que es cometran, la qual cosa permet arrestar als criminals abans de delinquir.

Però en la realitat, que una màquina decideixi sobre la vida humana sempre dóna lloc a controvèrsies.

Investigadors i defensors dels drets civils han dubtat sobre la seva fiabilitat tement que els seus resultats siguin injustos.


En Minority Report Tom Cruise és un policia que deté a persones que no han comès cap delicte sobre la base de les visions de tres mutants.


Hi ha un cas paradigmàtic, el d'un home de Wisconsin, Eric L. Loomis, que va ser sentenciat a sis anys de presó en part per un informe generat per l'algorisme secret d'un programari privat, que la defensa no va poder inspeccionar o qüestionar.

Es tractava del programa COMPAS, venut per Northpointe Inc, que va sentenciar respecte a Loomis «un alt risc de violència, un alt risc de reincidència, un alt risc abans del judici», segons va dir el fiscal, conclusions amb les quals el jutge va estar d'acord.

Però no van trigar a alçar-se veus dissidents, incòmodes amb l'ús d'un algorisme secret que havia enviat un home a la presó.

Va sortir a la llum un informe d'un equip d'investigadors liderat per Julia Dressel, estudiant d'informàtica en el Dartmouth College, que després d'analitzar la validesa dels resultats de COMPAS, va trobar que l'algorisme que utilitza no és més fiable que qualsevol humà sense preparació.

I a més hi havia sospites que el sistema afavoria als blancs enfront dels negres.

Dressel es va basar en la base de dades ProPublica, una col·lecció de puntuacions de COMPAS per a 10.000 acusats en espera de judici en el Comtat de Broward, Florida, així com també els seus registres d'arrestos per als següents dos anys.

La investigadora va seleccionar a l'atzar a 1.000 dels acusats i va registrar set dades sobre cadascun, incloent la seva edat, sexe i nombre de detencions prèvies.

Després va reclutar a 400 voluntaris de recerca, sense preparació prèvia i de diferents edats i nivells educatius, que van rebre perfils de 50 acusats per a pronosticar si tornarien a ser arrestats dins d'un període de dos anys, el mateix estàndard que utilitza COMPAS.

Els humans van encertar gairebé amb la mateixa freqüència que l'algorisme, entre el 63% i el 67% de les vegades, en comparació amb el 65% de COMPAS, segons la revista «Science Advances».

Resulta que els humans puntuen tan bé com l'algorisme quan prediuen correctament la detenció d'algú. Però quan s'equivoquen, revelen un biaix racial similar.

Tant l'home com la màquina van suposar incorrectament que hi hauria més arrestos de persones negres del que realment va succeir (falsos positius) i menys arrestos de blancs (falsos negatius).

És difícil defensar-se d'aquests algorismes sense tenir accés a aquests, ja que la companyia que comercialitza COMPAS diu que la seva fórmula és un secret comercial.

Aquest i altres productes amb algorismes similars s'utilitzen per a establir una fiança i fins i tot contribuir a les determinacions sobre la culpabilitat o la innocència, però el funcionament intern d'aquestes eines és inaccessible tant per a l'acusat com per als advocats, fiscals i jutges.

Encara que Loomis va impugnar la seva sentència perquè no se li va permetre avaluar l'algorisme, la Cort Suprema de l'Estat va fallar en contra seva raonant que el coneixement dels resultats de l'algorisme era un nivell suficient de transparència.

Però juristes i experts opinen que sense les garanties adequades, aquestes eines corren el risc d'erosionar l'Estat de Dret i disminuir els drets individuals.

Fent ressò de la primera llei de la tecnologia de Kranzberg, aquests algorismes no són ni bons ni dolents, però certament no són neutrals.

Els experts alerten que acceptar l'AI en el sistema jurídic sense un pla previ d'implantació i avaluació és permetre cegament que la tecnologia avanci.

Per això, el més convenient seria crear una moratòria sobre l'ús de la IA opaca en l'avaluació de riscos de la justícia penal, almenys fins que hi hagi processos i procediments establerts que permetin un examen significatiu d'aquestes eines i evitin que els algorismes no controlats desviïn el sistema de justícia penal.

Començant per assegurar que les dades en els quals s'entrenen els algorismes siguin representatius de tota la població, és important que el Govern estableixi estàndards reguladors per a garantir la imparcialitat i la transparència de l'algorisme, mitjançant la publicació periòdica d'informació que pugui ser auditada per organitzacions com els grups de drets civils.


LES PREDICCIONS EUROPEES


Mentrestant, a Europa no s'ha arribat tan lluny però un conjunt de científics de la Universitat de Sheffield (Regne Unit) i de la Universitat de Pennsilvània (els Estats Units) ha desenvolupat un sistema que prediceel resultat de decisions judicials amb gran precisió, ja que es va anticipar correctament al 79% dels veredictes del Tribunal Europeu de Drets Humans (TEDH) a través deun anàlisis de text utilitzant un algorisme d'aprenentatge automàtic.

Per a desenvolupar aquest sistema, l'equip d'investigadors, liderat pel doctor Aletras, es va adonar que les sentències del Tribunal Europeu de Drets Humans estan correlacionades amb fets no legals més que amb els arguments directament legals.

Això significa que són més realistes que formalistes, uns resultats que concorden amb els d'altres estudis realitzats en tribunals d'alt nivell, com el Tribunal Suprem dels Estats Units.

La recerca es va basar en 584 casos relacionats amb els articles 3, 6 i 8 de la Convenció Europea de Drets Humans per a aplicar el seu algorisme d'intel·ligència artificial a la recerca de patrons en el text.

Van descobrir que els factors més fiables per a predir la decisió del tribunal són el llenguatge utilitzat i els temes i les circumstàncies esmentades en el cas.

Amb aquesta informació el sistema va ser capaç d'aconseguir una precisió d'encert del 79%.


FONT: CONFILEGAL.COM


últimes notícies

Mutualistes, sí que es pot: Una jutgessa concedeix a una procuradora de 74 anys una pensió malgrat no arribar al mínim cotitzat

23 ABR 2024

La titular del Jutjat social 8 de Santa Cruz de Tenerife suma al RETA les aportacions de la professional a la ...


LexNET es renova amb una versió més senzilla, accessible i atractiva per als seus usuaris

23 ABR 2024

L'aplicació APPLexNET permet visualitzar notificacions i trasllats de còpies pendents de ...


DESPLEGAMENT DELS JUDICIS TELEMÀTICS

02 ABR 2024


mostrar totes les notícies

NOTICIES Y ACTUALITAT



VIA ALEMANIA, 5, Edificio Juzgados
07003, PALMA DE MALLORCA, ILLES BALEARS


Tel. 0034 971 723 912 · 0034 971 723 913

CERCA D'INFORMACIÓ

© 2024 · Tots els drets reservats a www.procuradoresdebaleares.es - Diseño Web y desarrollo Webstyle

Utilitzem cookies pròpies i de tercers per realitzar l'anàlisi de navegació dels usuaris i millorar els nostres serveis. Si continues navegant, considerem que accepta el seu ús. Pots obtenir més informació i configurar les teves preferències aquí. Configurar Cookies - Política de privacitat.

SEDES MALLORCA


 Ciudad de Palma

 Vía Alemania, 5- semisótano

 Tel. 971 723 912 / Fax 971 715 941


 Travessa d’en Ballester, 20

 Tel. 971 425 111 / Fax 971 710 349

 Inca

 c/ Pureza, 72

 Tel/Fax 971 883 883

 Manacor

 Pza. Creu Font i Roig, s/n

 Tel/Fax 971 554 452

SEDE MENORCA


 C/ Antoni Juan Alemany, 4

 Tel/Fax 971 351 557

SEDE IBIZA


 C/San Cristòfol,s/n (Edif. CETIS)

 Tel/Fax 971 315 475