A
diferència del nostre intel·lecte, els ordinadors doblen la seva capacitat cada
divuit mesos. Per tant, hi ha un perill real de que desenvolupin intel·ligència
i es facin els amos del món.
Stephen
Hawking
Estem
sotmesos a un conjunt d’amenaces més o menys probables. Algunes provocades per
nosaltres mateixos com el terrorisme, el perill nuclear, la pol·lució o el
canvi climàtic. Altres són naturals com els huracans, les tempestes
solars o els impactes de asteroides o meteorits. Respecte d’aquests, el recent
meteorit que va caure a Rússia i va ferir un miler de persones ens ha recordat
que no és una amenaça a ser menystinguda i, de fet, la ONU ha adoptat un pla de
defensa contra impactes d’asteroides. Es calcula que només n’hem descobert un
1% dels asteroides existents i que n’existeixen un milió capaços de destruir
una ciutat com Barcelona o més gran. Finalment, hi ha un tercer grup d’amenaces
d’origen mixt entre les quals trobem les pandèmies i els sismes com hem vist
amb l’assumpte de la plataforma Castor.
Avui us
parlaré d’una nova amenaça de la qual, possiblement, no n´heu sentit parlar
encara que ha sortit en alguns films de Hollywood com Terminator. Ja fa
temps vaig llegir un llibre de l’inventor Ray Kurzweil sobre el que ell anomena
la Singularitat, el moment en el que crearem màquines veritablement
intel·ligents que, poc temps més tard, ens superaran àmpliament en
intel·ligència.
Ray Kurzweil
Encara que ha
creat un moviment de caràcter quasi-religiós, aquest senyor no és un qualsevol,
ja que va guanyar l’any 1999 la Medalla Nacional de Tecnologia i
Innovació dels E.U.A. i ha estat fitxat per Google com a director d’
enginyeria. Kurzweil situa aquest moment “singular” al voltant de l’any
2045. De totes formes, Kurzweil és optimista sobre aquest esdeveniment, ja que,
segons ell, aquestes superintel·ligències ens ajudaran a solucionar tots els problemes
de la humanitat com la fam, la manca d’aigua, les necessitats energètiques, les
malalties, etc...
Ara, en
canvi, acabo de llegir el llibre “Our Final Invention” de James Barrat que
planteja un escenari molt més pessimista. Aquestes màquines seran molt
intel·ligents, però no tindran els
nostres valors, a menys de que ens esforcem molt per a instaurar-los-hi, ja que
els nostres valors provenen de la llarga història de l’evolució humana. En una
tribu, el qui no era mínimament altruista acabava essent condemnat, en molts casos, a l’ostracisme. La diferència d’intel·ligència farà que
les màquines ens contemplin com nosaltres als ratolins: no els odiem, però els
usem en les nostres investigacions. O com
mirem les formigues: simplement les ignorem en la majoria de casos o les
aniquilem si competeixen en recursos amb nosaltres com faig el dia que se’m
mengen el sucre o el pernil.
Estem davant
d’un perill imminent? Segons enquestes que esmenta Barrat en el seu
llibre els experts consideren que arribarem a assolir aquest nivell
d’intel·ligència artificial (IA) abans del 2028 amb un 10% de probabilitat,
abans del 2050 amb un 50% i abans de que acabi el segle amb un 90%.
Però té James Barrat autoritat per a escriure sobre això? De fet la seva professió
és la de realitzador de documentals per clients com National Geographic,
Discovery i PBS i alguna llacuna científica té com quan esmenta la “segona llei
de la termodinàmica de Newton”, però el que és important és que ha recollit
opinions de diversos experts, alguns escèptics i, entre els creuen en la creació
de màquines intel·ligents, hi ha els optimistes com Kurzweil i els cauts o
pessimistes com ell mateix o Arthur C. Clarke, que va escriure la novel·la
“2001, una odissea a l’espai”.
Quines són
les estratègies per aconseguir l’objectiu de crear màquines intel·ligents?
En hi ha de
diverses. Una consisteix en fer enginyeria inversa del cervell, un òrgan
jerarquitzat i massivament paral·lel i no com la majoria d’ordinadors que
treballen en sèrie. El projecte SyNAPSE d’IBM va en aquesta direcció i
està finançat per l’agència de Defensa DARPA. Altres diuen que això és una
pèrdua de temps, perquè el cervell, com tantes coses que ha anat dissenyant
l’evolució, no està optimitzat. I afegeixen que no hem necessitat imitar els
ocells per a fer volar els avions. Aquests prefereixen programar diversos
mòduls que quan estiguin perfeccionats podran unir-se. Un mòdul, per exemple,
seria el de visió artificial, encara molt per sota del poder de distinció i
identificació de la visió humana. Altres volen usar algoritmes
genètics o xarxes neuronals artificials, capaces d’aprendre per elles mateixes.
Aquests sistemes s’anomenen “black box” perquè si bé entenem els seus inputs i
outputs, no coneixem com arriben al resultat que és, sovint,
sorprenent. Finalment, altres investigadors s’inclinen per
models híbrids com la mescla de programació ordinària i sistemes “black box” o
mescla de màquina i cervell humà. Una de les esperances és poder assolir la
immortalitat carregant la ment de humans a màquines intel·ligents.
Per a que
tingueu una idea de les coses que ja s’han assolit, John Koza de la universitat
de Stanford ha usat algoritmes genètics per a crear una antena per la NASA, per
a identificar proteïnes i per aconseguir “reinventar” components electròniques
que havien estat patentades per humans. Es a dir, el factor de creativitat, una
de les característiques de la intel·ligència, ja està present en aquests
algoritmes que aprenent mutant i evolucionant subjectes a ser exitosos per la
tasca que han estat dissenyats, com ho fan els éssers vius.
Antena de la Nasa dissenyada per un algoritme genètic
Com seran
aquests programes intel·ligents? Necessitaran un cos?
D’acord amb
Steve Omohundro, una de les persones que més ha pensat sobre aquest tema, les
entitats intel·ligents tenen objectius i, entre ells, els més forts són els de l’autopreservació i
la captació de recursos. Un sistema intel·ligent és autoconscient i busca també
la forma de millorar i ser més eficient i creatiu. La humanitat gasta molts
recursos, cada dia més, ja que la població està en creixement i tothom aspira a
una millor vida. Per tant, entraríem en competència pels recursos. Qui
guanyaria? El problema de la IAG (Intel·ligència Artificial
General, per distingir-la de la focalitzada en un problema que ja existeix com
Deep Blue en escacs, Google en cerques a internet o Watson en Jeopardy) és que, una vegada assolida, es pot convertir
en SIA (Superintel·ligència Artificial) en poc temps degut a que l’evolució
dels ordinadors i del software és molt més ràpida que la evolució biològica.
El problema es complica perquè, avui en dia, la informàtica ha passat a
ser un servei, més que un producte. Per exemple, l’empresa Cycle
Computing va crear una xarxa de 30.000 processadors fent servir el núvol
d’Amazon amb 26,7 terabytes de RAM i dos petabytes d’espai de disc per a
modelitzar el comportament d’una molècula per una empresa farmacèutica. Ho van
fer des de les seves oficines i van usar la xarxa durant 7 hores per un cost
total de menys de 9.000 dòlars. Durant aquest temps aquesta xarxa es va
constituir en un dels 500 superordinadors més ràpids del món.
Encara que no disposés de cos, SIA podria usar diversos núvols, fer còpies
d’ell mateix i començar a controlar les estructures crítiques del món avançat
com són les xarxes elèctriques, d’aigua i de transport i els mercats
financers. Aquests ja estan avui dia controlats per ordinadors. En
la borsa de Nova York i el Nasdaq uns vuitanta sistemes de compravenda d’accions
computeritzats i d’alta freqüència (HFT’s) fan entre el 50% i el 70% de les
transaccions Aproximadament mil milions d’accions al dia canvien de mans
gràcies a aquests sistemes que ja han causat problemes perquè escapen al
control humà. Al maig del 2010 un agent de canvi i borsa es va espantar i
va ordenar la venda de 4.100 milions de dòlars en futurs i fons relacionats amb
canvis de moneda europeus. Els preus dels futurs van caure 4% i els
algoritmes d’alta freqüència van detectar-ho i, com que poden donar
ordres de venda en menys de 3 mili segons, van fer baixar el Dow Jones 1.000
punts en vint minuts. De fet, un dels llocs on pot emergir la IAG és en
els mercats financers ja que estan sotmesos a la llei Darwiniana de la
competència de forma accelerada. Un episodi similar es va produir
el u d’agost del 2012 quan Knight Capital Partners va perdre 440 milions de
dòlars en 30 minuts. I una vegada que una SIA s’hagi fet amb el control de les
infraestructures crítiques amb amenaces o enganys farà que li posen un cos a la
seva disposició i aleshores gràcies a la nanotecnologia i els seus assembladors
moleculars farà tantes còpies d’ella
mateixa com vulgui. I ja sabeu el què passa quan dues civilitzacions amb
graus molt diferents de desenvolupament es troben. Només cal recordar el que va
passar amb els indis americans i amb els inques. I si no podem evitar que
hackers humans entrin en les webs més protegides, com podrem impedir que una
SIA hi entri i es faci amb el control de les infraestructures més crítiques?
Podem
detenir aquesta cursa?
Hi ha tants
interessos, tants guanys potencials pel primer país o la primera companyia que
assoleixi AGI que els experts pensen que és impossible detenir aquesta cursa.
Endemés els militars estan al darrera de fabricar robots armats (hi han 56
països que hi treballen segons Barrat) i DARPA és un dels grans promotors de
les investigacions en IA. De fet, alguns
investigadors pensen que quan més aviat es creï un IAG millor, ja que, quan més
avancem, més automatitzada i digitalitzada estarà l’economia i, per tant, més
vulnerable a un IAG. Fa 50 anys la borsa de Nova York no era vulnerable com
ara. Endemés també es faran progressos en nanotecnologia i biotecnologia amb
creació de vida artificial i les tres tecnologies (IA,NT i BT) es
complementaran. Podem instaurar valors humans en les intel·ligències
artificials? Hi ha gent com Eliezer Yudkowsky del Machine Intelligence
Research Institute (MIRI) que hi treballen, però no està clar que aquests
valors siguin formalitzables. Per altra banda què pensarien els accionistes
d’una companyia que fabrica robots soldats si els hi poséssim valors humans? No
els faria cap gràcia. I, de totes maneres, encara que compartíssim certs
valors, els importaríem massa si són mil vegades més intel·ligents? Compartim
una part del nostre ADN amb la de la mosca de la fruita i això ha estat una
sorpresa, però a partir d’aquest moment no hem fet el que ens ha donat la gana,
sense prestar més atenció a la mosca que la que convé als nostres interessos?
És
factible assolir l’objectiu de crear intel·ligència artificial?
Com pot ser
sabreu, un criteri d’intel·ligència és passar el test de Turing. Diversos
experts se seuen davant de dues pantalles darrera les quals hi ha una IA en una
i un humà en l’altre. Li fan preguntes i si no poden distingir darrera de quina
hi ha l’humà i la IA es diu que la IA ha passat el test de Turing. De totes
maneres, als humans l’evolució ens ha
preparat més per la percepció i l’acció que pel raonament i, per això,
Steve Wozniak, el co-fundador d’Apple ha dit que el test de Turing per un robot
és la seva capacitat per entrar en qualsevol casa, buscar la cafetera i el pot
del cafè i servir-nos-en un. Encara que estem lluny d’aconseguir
això, si la evolució cega ho ha fet, com no ho ha d’assolir la intel·ligència
humana? Recordeu com ha estat de ràpida la evolució dels ordinadors. Sabeu que
la velocitat de processament de l’IPAD2 és l’equivalent del supercomputador
Cray 2 de l’any 1985? I que l’IPAD2 estaria a l’any 1994 entre els 500
ordinadors més ràpids del món? El ordinador més ràpid actual, el SEQUOIA del
Departament de Defensa dels E.U.A. té una capacitat de càlcul similar al
cervell humà (això no vol dir el mateix nivell d’intel·ligència) i aquesta fita
es va assolir un any abans del que havia predit Kurzweil. Aquesta mateixa
capacitat la tindrem en un portàtil abans de 2020. Hi ha gent que prediuen que
la famosa llei de Moore es trencarà abans del 2020, ja que la miniaturització dels xips està
arribant a nivells quàntics, però es creu que es podrà perllongar amb nous
dissenys com xips en 3D desenvolupats al Politècnic de Lausanne. Alguns
científics han comparat la situació actual al moment en que es va fer el pas de
la vida unicel·lular a la multicel·lular. Es el moment en el que els ordinadors
ens ajuden a crear ordinadors més potents i no sabem a on ens portarà aquest
canvi.
Hi ha
alguns exemples d’intel·ligència artificial?
Ja n’hem
esmentat alguns en camps focalitzats com els escacs o les cerques en
internet. Pot un humà superar en general a Google en fer-les? Avui
dia hi ha sistemes que observant un pèndol doble poden derivar lleis de
la física newtoniana.
Un pèndol doble
Hi han
programes com Eurisko capaços de modificar el seu propi codi i establir
estratègies guanyadores en jocs de guerra, evolucionant ràpidament l’estratègia
òptima jugant 10.000 batalles i aprenent de cadascuna de elles i altres
programes estableixen teoremes matemàtics. Una de les característiques de
la intel·ligència és el reconeixement de patrons i aquests algoritmes genètics
com el del pèndol doble són capaços de fer-ho. Li van preguntar al cap de
l’equip de Watson si aquest podia pensar. I va contestar amb la
pregunta que va fer un altre expert en una situació similar: “Un submarí
pot nedar?” Un submarí no neda com els peixos, però pot anar més ràpid que la
majoria d’ells i pot està submergit més que qualsevol mamífer aquàtic. I
sabíeu que hi ha un software que en un any ha generat automàticament 100.000
articles esportius i els ha penjat en centenars de webs dedicades a equips
concrets? La professió de certs periodistes també està en perill.
Com ens en
adonarem que s’ha produït una IAG? Hi hauria alguna forma de defensar-se'n?
Si es
produeix una gran concentració de riquesa o una petició incessant d’informació
o un intent evident d’assegurar-se de fonts d’energia importants, aquests
podrien ésser senyals de l’aparició de una IAG. Endemés de posar
protocols molt seriosos sobre el desenvolupament de IAG, com s’ha fet en
biotecnologia, pot ser seria millor que apareguessin diverses IAGs
simultàniament, més que una sola. En quant els protocols hi ha científics
que proposen establir tractats com els que s’han fet amb les armes nuclears
(més fàcils quan ja hi ha vàries nacions que les posseeixen que quan només n’hi
havia una o dues) o copiar el sistema de proves que les autoritats sanitàries
obliguen a fer abans de llançar un medicament al mercat.