dimecres, 6 de novembre del 2013

La nostra útima invenció


A diferència del nostre intel·lecte, els ordinadors doblen la seva capacitat cada divuit mesos. Per tant, hi ha un perill real de que desenvolupin intel·ligència i es facin els amos del món. 

Stephen Hawking

Estem sotmesos a un conjunt d’amenaces més o menys probables. Algunes provocades per nosaltres mateixos com el terrorisme, el perill nuclear, la pol·lució o el canvi climàtic. Altres són naturals com  els huracans, les tempestes solars o els impactes de asteroides o meteorits. Respecte d’aquests, el recent meteorit que va caure a Rússia i va ferir un miler de persones ens ha recordat que no és una amenaça a ser menystinguda i, de fet, la ONU ha adoptat un pla de defensa contra impactes d’asteroides. Es calcula que només n’hem descobert un 1% dels asteroides existents i que n’existeixen un milió capaços de destruir una ciutat com Barcelona o més gran. Finalment, hi ha un tercer grup d’amenaces d’origen mixt entre les quals trobem les pandèmies i els sismes com hem vist amb l’assumpte de la plataforma Castor.

Avui us parlaré d’una nova amenaça de la qual, possiblement, no n´heu sentit parlar encara que ha sortit en alguns films de Hollywood com Terminator.  Ja fa temps vaig llegir un llibre de l’inventor Ray Kurzweil sobre el que ell anomena la Singularitat, el moment en el que crearem màquines veritablement intel·ligents que, poc temps més tard, ens superaran àmpliament en intel·ligència.


                                                            Ray Kurzweil

Encara que ha creat un moviment de caràcter quasi-religiós, aquest senyor no és un qualsevol,  ja que va guanyar l’any 1999 la Medalla Nacional de Tecnologia  i Innovació dels E.U.A. i ha estat fitxat per Google com a director d’ enginyeria.  Kurzweil situa aquest moment “singular” al voltant de l’any 2045. De totes formes, Kurzweil és optimista sobre aquest esdeveniment, ja que, segons ell, aquestes superintel·ligències ens ajudaran a solucionar tots els problemes de la humanitat com la fam, la manca d’aigua, les necessitats energètiques, les malalties, etc...

Ara, en canvi, acabo de llegir el llibre “Our Final Invention” de James Barrat que planteja un escenari molt més pessimista. Aquestes màquines seran molt intel·ligents,  però no tindran els nostres valors, a menys de que ens esforcem molt per a instaurar-los-hi, ja que els nostres valors provenen de la llarga història de l’evolució humana. En una tribu, el qui no era mínimament altruista acabava essent condemnat, en molts casos, a l’ostracisme.  La diferència d’intel·ligència farà que les màquines ens contemplin com nosaltres als ratolins: no els odiem, però els usem en les nostres investigacions. O com mirem les formigues: simplement les ignorem en la majoria de casos o les aniquilem si competeixen en recursos amb nosaltres com faig el dia que se’m mengen el sucre o el pernil.

Estem davant d’un perill imminent?  Segons enquestes que esmenta Barrat en el seu llibre els experts consideren que arribarem a assolir aquest nivell d’intel·ligència artificial (IA) abans del 2028 amb un 10% de probabilitat, abans del 2050 amb un 50% i abans de que acabi el segle amb un 90%.   Però té James Barrat autoritat per a escriure sobre això? De fet la seva professió és la de realitzador de documentals per clients com National Geographic, Discovery i PBS i alguna llacuna científica té com quan esmenta la “segona llei de la termodinàmica de Newton”, però el que és important és que ha recollit opinions de diversos experts, alguns escèptics i, entre els creuen en la creació de màquines intel·ligents,  hi ha els optimistes com Kurzweil i els cauts o pessimistes com ell mateix o Arthur C. Clarke, que va escriure la novel·la “2001, una odissea a l’espai”.
 

Quines són les estratègies per aconseguir l’objectiu de crear màquines intel·ligents?
 

En hi ha de diverses. Una consisteix en fer enginyeria inversa del cervell, un òrgan jerarquitzat i massivament paral·lel i no com la majoria d’ordinadors que treballen en sèrie.  El projecte SyNAPSE d’IBM va en aquesta direcció i està finançat per l’agència de Defensa DARPA. Altres diuen que això és una pèrdua de temps, perquè el cervell, com tantes coses que ha anat dissenyant l’evolució, no està optimitzat. I afegeixen que no hem necessitat imitar els ocells per a fer volar els avions.  Aquests prefereixen programar diversos mòduls que quan estiguin perfeccionats podran unir-se. Un mòdul, per exemple, seria el de visió artificial, encara molt per sota del poder de distinció i identificació de la visió humana.   Altres volen usar algoritmes genètics o xarxes neuronals artificials, capaces d’aprendre per elles mateixes. Aquests sistemes s’anomenen “black box” perquè si bé entenem els seus inputs i  outputs, no coneixem com arriben al resultat que és, sovint, sorprenent.   Finalment,  altres investigadors s’inclinen per models híbrids com la mescla de programació ordinària i sistemes “black box” o mescla de màquina i cervell humà. Una de les esperances és poder assolir la immortalitat carregant la ment de humans a màquines intel·ligents.

Per a que tingueu una idea de les coses que ja s’han assolit, John Koza de la universitat de Stanford ha usat algoritmes genètics per a crear una antena per la NASA, per a identificar proteïnes i per aconseguir “reinventar” components electròniques que havien estat patentades per humans. Es a dir, el factor de creativitat, una de les característiques de la intel·ligència, ja està present en aquests algoritmes que aprenent mutant i evolucionant subjectes a ser exitosos per la tasca que han estat dissenyats, com ho fan els éssers vius.
 

 
                                         Antena de la Nasa dissenyada per un algoritme genètic
 
Com seran aquests programes intel·ligents? Necessitaran un cos?


D’acord amb Steve Omohundro, una de les persones que més ha pensat sobre aquest tema, les entitats intel·ligents tenen objectius i, entre ells,  els més forts són els de l’autopreservació i la captació de recursos. Un sistema intel·ligent és autoconscient i busca també la forma de millorar i ser més eficient i creatiu. La humanitat gasta molts recursos, cada dia més, ja que la població està en creixement i tothom aspira a una millor vida. Per tant, entraríem en competència pels recursos. Qui guanyaria?  El problema de la IAG  (Intel·ligència Artificial General, per distingir-la de la focalitzada en un problema que ja existeix com Deep Blue en escacs, Google en cerques a internet o Watson en Jeopardy) és que, una vegada assolida,  es pot convertir en SIA (Superintel·ligència Artificial) en poc temps degut a que l’evolució dels ordinadors i del software és molt més ràpida que la evolució biològica.  El problema es complica perquè, avui en dia, la informàtica ha passat a ser un servei, més que un producte.  Per exemple, l’empresa Cycle Computing va crear una xarxa de 30.000 processadors fent servir el núvol d’Amazon amb 26,7 terabytes de RAM i dos petabytes d’espai de disc  per a modelitzar el comportament d’una molècula per una empresa farmacèutica. Ho van fer des de les seves oficines i van usar la xarxa durant 7 hores per un cost total de menys de 9.000 dòlars. Durant aquest temps aquesta xarxa es va constituir en un dels 500 superordinadors més ràpids del món.   Encara que no disposés de cos, SIA podria usar diversos núvols, fer còpies d’ell mateix i començar a controlar les estructures crítiques del món avançat com són les xarxes elèctriques, d’aigua i de transport i els mercats financers.   Aquests ja estan avui dia controlats per ordinadors. En la borsa de Nova York i el Nasdaq uns vuitanta sistemes de compravenda d’accions computeritzats i d’alta freqüència (HFT’s) fan entre el 50% i el 70% de les transaccions Aproximadament mil milions d’accions al dia canvien de mans gràcies a aquests sistemes que ja han causat problemes perquè escapen al control humà.  Al maig del 2010 un agent de canvi i borsa es va espantar i va ordenar la venda de 4.100 milions de dòlars en futurs i fons relacionats amb canvis de moneda europeus.  Els preus dels futurs van caure 4% i els algoritmes d’alta freqüència van detectar-ho i, com que poden  donar ordres de venda en menys de 3 mili segons, van fer baixar el Dow Jones 1.000 punts en vint minuts.  De fet, un dels llocs on pot emergir la IAG és en els mercats financers ja que estan sotmesos a la llei Darwiniana de la competència de forma accelerada.  Un  episodi similar es va produir el u d’agost del 2012 quan Knight Capital Partners va perdre 440 milions de dòlars en 30 minuts. I una vegada que  una SIA s’hagi fet amb el control de les infraestructures crítiques amb amenaces o enganys farà que li posen un cos a la seva disposició i aleshores gràcies a la nanotecnologia i els seus assembladors moleculars farà tantes còpies  d’ella mateixa com vulgui.  I ja sabeu el què passa quan dues civilitzacions amb graus molt diferents de desenvolupament es troben. Només cal recordar el que va passar amb els indis americans i amb els inques.  I si no podem evitar que hackers humans entrin en les webs més protegides, com podrem impedir que una SIA hi entri i es faci amb el control de les infraestructures més crítiques?
 
Podem detenir aquesta cursa?


Hi ha tants interessos, tants guanys potencials pel primer país o la primera companyia que assoleixi AGI que els experts pensen que és impossible detenir aquesta cursa. Endemés els militars estan al darrera de fabricar robots armats (hi han 56 països que hi treballen segons Barrat) i DARPA és un dels grans promotors de les investigacions en IA. De fet, alguns investigadors pensen que quan més aviat es creï un IAG millor, ja que, quan més avancem, més automatitzada i digitalitzada estarà l’economia i, per tant, més vulnerable a un IAG. Fa 50 anys la borsa de Nova York no era vulnerable com ara. Endemés també es faran progressos en nanotecnologia i biotecnologia amb creació de vida artificial i les tres tecnologies (IA,NT i BT) es complementaran.  Podem instaurar valors humans en les intel·ligències artificials?  Hi ha gent com Eliezer Yudkowsky del Machine Intelligence Research Institute (MIRI) que hi treballen, però no està clar que aquests valors siguin formalitzables. Per altra banda què pensarien els accionistes d’una companyia que fabrica robots soldats si els hi poséssim valors humans? No els faria cap gràcia. I, de totes maneres, encara que compartíssim certs valors, els importaríem massa si són mil vegades més intel·ligents? Compartim una part del nostre ADN amb la de la mosca de la fruita i això ha estat una sorpresa, però a partir d’aquest moment no hem fet el que ens ha donat la gana, sense prestar més atenció a la mosca que la que convé als nostres interessos?
 
És factible assolir l’objectiu de crear intel·ligència artificial?
 




Com pot ser sabreu, un criteri d’intel·ligència és passar el test de Turing.  Diversos experts se seuen davant de dues pantalles darrera les quals hi ha una IA en una i un humà en l’altre. Li fan preguntes i si no poden distingir darrera de quina hi ha l’humà i la IA es diu que la IA ha passat el test de Turing. De totes maneres,  als humans l’evolució ens ha preparat més per la percepció i l’acció que pel raonament i,  per això, Steve Wozniak, el co-fundador d’Apple ha dit que el test de Turing per un robot és la seva capacitat per entrar en qualsevol casa, buscar la cafetera i el pot del cafè i servir-nos-en un.   Encara que estem lluny d’aconseguir això, si la evolució cega ho ha fet, com no ho ha d’assolir la intel·ligència humana? Recordeu com ha estat de ràpida la evolució dels ordinadors. Sabeu que la velocitat de processament de l’IPAD2 és l’equivalent del supercomputador Cray 2 de l’any 1985? I que l’IPAD2 estaria a l’any 1994 entre els 500 ordinadors més ràpids del món? El ordinador més ràpid actual, el SEQUOIA del Departament de Defensa dels E.U.A. té una capacitat de càlcul similar al cervell humà (això no vol dir el mateix nivell d’intel·ligència) i aquesta fita es va assolir un any abans del que havia predit Kurzweil.  Aquesta mateixa capacitat la tindrem en un portàtil abans de 2020. Hi ha gent que prediuen que la famosa llei de Moore es trencarà abans del 2020,  ja que la miniaturització dels xips està arribant a nivells quàntics, però es creu que es podrà perllongar amb nous dissenys com xips en 3D desenvolupats al Politècnic de Lausanne.  Alguns científics han comparat la situació actual al moment en que es va fer el pas de la vida unicel·lular a la multicel·lular. Es el moment en el que els ordinadors ens ajuden a crear ordinadors més potents i no sabem a on ens portarà aquest canvi.


Hi ha alguns exemples d’intel·ligència artificial?
 
Ja n’hem esmentat alguns en camps focalitzats com els escacs o les cerques en internet.  Pot un humà superar en general a Google en fer-les?  Avui dia hi ha sistemes que observant un pèndol doble poden  derivar lleis de la física newtoniana.
 

 
                                                                 Un pèndol doble

Hi han programes com Eurisko capaços de modificar el seu propi codi i establir estratègies guanyadores en jocs de guerra, evolucionant ràpidament l’estratègia òptima jugant 10.000 batalles i aprenent de cadascuna de elles i altres programes estableixen teoremes matemàtics.  Una de les característiques de la intel·ligència és el reconeixement de patrons i aquests algoritmes genètics com el del pèndol doble són capaços de fer-ho.  Li van preguntar al cap de l’equip de Watson si  aquest podia pensar.  I va contestar amb la pregunta que va fer un altre expert en una situació similar:  “Un submarí pot nedar?” Un submarí no neda com els peixos, però pot anar més ràpid que la majoria d’ells i pot està submergit més que qualsevol mamífer aquàtic.  I sabíeu que hi ha un software que en un any ha generat automàticament 100.000 articles esportius i els ha penjat en centenars de webs dedicades a equips concrets?  La professió de certs periodistes també està en perill.


Com ens en adonarem que s’ha produït una IAG? Hi hauria alguna forma de defensar-se'n?

Si es produeix una gran concentració de riquesa o una petició incessant d’informació o un intent evident d’assegurar-se de fonts d’energia importants, aquests podrien ésser senyals de l’aparició de una IAG.  Endemés de posar protocols molt seriosos sobre el desenvolupament de IAG, com s’ha fet en biotecnologia, pot ser seria millor que apareguessin diverses IAGs simultàniament, més que una sola.  En quant els protocols hi ha científics que proposen establir tractats com els que s’han fet amb les armes nuclears (més fàcils quan ja hi ha vàries nacions que les posseeixen que quan només n’hi havia una o dues) o copiar el sistema de proves que les autoritats sanitàries obliguen a fer abans de llançar un medicament al mercat.

 

 

 

 
 

 

Cap comentari:

Publica un comentari a l'entrada