dilluns, 20 d’abril del 2015

Els robots morals


Segons Bertram Malle, professor de Brown University està cada dia més acceptat que la intel·ligència artificial no provindrà tant d’una bona programació com de l’aprenentatge. El cervell humà és la màquina més poderosa d’aprenentatge en l’univers, almenys pel que coneixem. Però els humans naixem ignorants i tenim una gran necessitat dels altres per adquirir coneixement i habilitats.

Si els robots s’han d’integrar a la societat humana han de ser capaços d’aprendre quasi tan bé com ho fan els humans. Però aquí apareix un problema i és que caldrà limitar com aprenen i de qui. En la pel·lícula Chappie un robot aprèn d’un grup de criminals. Una solució seria programar els robots de forma que el programa els impedeixi aprendre coses socialment no desitjables.

Una alternativa seria programar-los un petit nombre de normes bàsiques i deixar que aprenguin de la comunitat on s’integrin. Seria una forma d’actuar democràtica. Imaginem que una persona vol ensenyar el robot a robar i l’altra a compartir. El robot interrogaria al conjunt de la comunitat per saber a quina persona havia de fer cas.  Si suposem que les normes morals són les de la majoria de la comunitat i que les opinions de la majoria guien també a les persones, aquesta podria ser una de les normes que haurien de complir els robots: fer el que dicti la majoria.

No correm el risc de que aquests robots intel·ligents vulguin fer-se els amos del món? Sempre podem programar-los per a que siguin prosocials i de que, d’aquesta manera, siguin més consistents que els propis humans amb qui les tendències prosocials sovint entren en conflicte amb els interessos individuals.

Hi ha, però el perill de que si grups humans entren en conflicte, els robots de cada grup també desenvolupin la mateixa animadversió. Tot això són opinions d’aquest professor de Brown que, en qualsevol cas, hi estiguem o no d’acord, són motius de reflexió.

Com veieu, ens enfrontarem aviat a nous problemes provocats pels grans avenços tecnològics. Ara mateix ja hi han pensadors que volen prohibir les armes intel·ligents, uns sistemes que faran les decisions de qui matar de forma autònoma. Per això hi ha qui proposa revifar l’estudi de les humanitats, ja que els científics i tecnòlegs, per ells mateixos potser no seran capaços de decidir sobre aquestes qüestions ètiques i necessitaran el concurs de filòsofs, sociòlegs, psicòlegs, etc.

 
Nota: La font d’aquest bloc és l’article del professor Bertran Malle a Live Science reproduit a la web de la Brown University

Cap comentari:

Publica un comentari a l'entrada