dimarts, 26 de maig del 2015

Com retrocedir en l'evolució


Les aus van evolucionar dels dinosaures fa uns 150 milions d'anys. Van adquirir plomes, van ajuntar els seus dits en ales i van formar un bec per recollir menjar. Tot això ho veiem en les restes fòssils que hem anat descobrint, però no podem precisar quines són les peces de l'ADN que van canviar per convertir els dinosaures en les aus que existeixen avui dia.

Ara alguns investigadors estan tractant de desxifrar aquest enigma utilitzant embrions de pollastre en els seus experiments. Si tenen èxit potser, algun dia, puguin posar la marxa enrere a l'evolució i retornar-nos al parc Juràssic.

De moment es concentren en una de les parts més característiques de l'anatomia de les aus, el bec. (Aquesta és, per cert, una de les estratègies comunes de la ciència. Quan es vol abordar un tema complex, es comença per un més senzill que pugui donar els seus fruits en un termini no molt llunyà, amb l'esperança que amb ell s’aprengui alguna cosa sobre el tema més complex. Així, per exemple, encara que la finalitat sigui fer un mapa de les connexions neuronals del cervell humà s'ha començat per un organisme en el qual les connexions només són uns quants centenars en comptes de bilions).
La idea és transformar el bec del pollet en un musell de dinosaure. El bec va evolucionar tard, després que les primeres aus disposessin ja de plomes i del poder de volar. El Dr. Bhullar de la universitat de Yale i el Dr. Abzhanov de la universitat de Harvard han intentat trobar els canvis genètics que van transformar els premaxilars dels dinosaures en els becs de les aus.

Estudiant els embrions de pollastre han descobert que abans que l'embrió tingui una cara reconeixible, una gran part de les cèl·lules que formaran la cara produeixen una proteïna anomenada Fgf8 i més tard altres proteïnes anomenades Lef1. Els embrions dels ratolins també produeixen aquestes proteïnes, però en dos grups petits de cèl·lules separats, no en un grup gran únic. I el mateix passa en animals que no són ocells. D'aquesta manera van arribar a la hipòtesi que potser aquest fet era el que podia fer que els premaxilars es fusionessin i fossin un precursor dels becs.

Per provar si la seva hipòtesi era certa havien d'intentar que els embrions de pollastre usessin les proteïnes Fgf8 i Lef1 com ho fan els ratolins i veure si això donava com a resultat un pollastre sense bec. Per a això van posar en la part central on l'embrió forma la cara, amb l'ajuda d'un microscopi, un producte químic que interferia amb les proteïnes. Com havien predit, els embrions no van desenvolupar un bec i en el seu lloc va aparèixer un parell d'ossos arrodonits i no fusionats, a la manera com succeeix en el cap d'un dinosaure. Segons J.R. Horner, autor del llibre "How to Build a Dinosaur: The New Science of Reverse Evolution", aquest resultat és fantàstic. Altres científics no han estat tan entusiastes perquè creuen que la substància química usada pot ser tòxica i que el canvi en l'anatomia pot no ser una evolució cap enrere sinó el resultat de la mort de certs teixits. Potser l'evolució cap al bec sigui una història molt més complicada. Caldrà fer experiments més sofisticats per trobar respostes a aquests debats encara que Bhullar i Abzhanov sospiten que alguna seqüència de l'ADN regula les proteïnes Fgf8 i Lef1 d'una manera peculiar. Potser caldrà examinar el desenvolupament embrionari dels cocodrils i d'altres parents propers actuals de les aus.
 
Nota: La font d'aquest bloc és l'article de Carl Zimmer al New York Times, 12.5.15.

El telescopi, un invent català?


La invenció del telescopi s’atribueix a Hans Lippershey, nascut a Alemanya i que es va establir a Middelburg, la capital de la província de Zeeland a Holanda.  Ell va obtenir una patent de la seva invenció en l’any 1608. Galileu es va basar en aquest telescopi per construir un de propi amb el que va observar els quatre satèl·lits més importants de Júpiter que donaven voltes entorn el planeta, la qual cosa va demostrar que no tots els astres  giraven al voltant de la Terra com es pensava llavors.
Un deixeble de Galileu, Girolamo Sirtori de Milà, va anar a Girona entre el 1609 i el 1611 amb l’objectiu de vendre un telescopi com el de Galileu i es va trobar amb un ancià, anomenat Joan Roget, d’origen francès, però establert des de feia anys a Girona el qual li va mostrar en un obrador tancat amb clau, ple de pols i rovellat, el seu invent, fet anys abans,  d’un aparell semblant. En el 1618 va publicar un llibre "Telescopium: sive ars perficiendi novum illud Galilaei visorium instrumentum ad sydera in tres partes divisa", on explica, per primera vegada, de forma detallada com construir un telescopi basat, segons entenc, en la informació que va obtenir de Joan Roget.
Pel que sembla aquesta informació ja figurava a l’Enciclopèdia Espasa de l’any 1929. Més tard, en el 1959, un optometrista anomenat Josep Maria Simón de Guilleuma va afirmar que havia descobert proves que assenyalaven a Joan Roget com inventor del telescopi. Més endavant, l’historiador britànic Nick Pelling, en un article publicat l’octubre del 2008 a la revista History Today, va considerar plausible que Lippershey i altres inventors holandesos haguessin tingut alguna connexió amb Roget abans de la patent del 1608.
Joan Roget

Us adjunto un youtube (enviat per Antonio Barriendos) on trobareu explicada aquesta història a partir del minut 1h 3min. Abans també hi trobareu que a Catalunya hi havia, en aquelles dates,  un gran domini de la fabricació de vidre i també trobareu un altre invent català per la mesura del temps i que era vital per a calcular la longitud en la navegació, abans de que s’inventessin els rellotges mecànics. (La latitud es pot calcular mirant la posició de les estrelles, però no la longitud).

Nota: La font d’aquest bloc és un parell de comunicacions del meu amic Antonio Barriendos i alguns articles trobats a internet.

S'ha trobat una explicació del perquè no hi ha antimatèria en l'univers?


Un dels grans problemes no resolts de la física i, en particular, de la cosmologia és l'existència de la matèria ordinària, la dels àtoms de la taula periòdica (no parlem ara de la matèria fosca, un altre misteri).  Sabem, des de Dirac i Anderson (el descobridor del positró)que totes les partícules elementals (quarks, que són els constituents dels protons i neutrons i leptons, l'electró i el neutrí, entre altres) tenen la seva antipartícula, però segons els nostres models teòrics en els primers instants del Big Bang s’haurien d'haver creat la mateixa quantitat de partícules i antipartícules (que s’haguessin destruït mútuament i nosaltres no seríem aquí preguntant-nos per l’origen d’aquest misteri i aquí entrem ja en un terreny que es podria dir metafísic, com diuen en anglès: Why is there something rather than nothing?). Som aquí perquè,  per cada 1.000 milions d'antipartícules, es van crear 1.000 milions i 1 partícula. Això sí que és filar prim! Malgrat que s'han proposat diverses explicacions per aquesta discrepància, cap no l'ha resolt del tot. Bé doncs, ara sembla que sí podríem tenir-hi una.
El telescopi espacial Fermi ha detectat l’existència d’un camp magnètic present a tot l’univers, segons una comunicació publicada, per Tanmay Vachaspati de la universitat d’Arizona i altres col·laboradors (entre ells un tal Francesc Ferrer), a les Monthly Notices de la Royal Astronomical Society. Vachaspati ja havia publicat en el 2001 uns models teòrics per intentar solucionar el problema de l’antimatèria. Aquest models prediuen que l’univers està ple de camps magnètics helicoïdals (com un tirabuixó). Per a comprovar la seva teoria han analitzat les dades obtingudes per l’observatori de raigs gamma Fermi.  Els raigs gamma haurien de notar aquests camps en forma d’espiral.  I això és el que han  trobat els científics. (Hi ha dues formes d’espiral representades per les mans dreta i esquerra. Si poseu els dits índex a petit en forma circular i el dit gros cap amunt veureu que el sentit de gir dels dits índex a petit és diferent per la mà dreta i per l’esquerra.) Les dades mostren no solament l’existència d’un camp magnètic helicoïdal, sinó l’existència d’un excés de espirals esquerranes. Això, segons els científics, explicaria la inexistència d’antimatèria (en quantitats apreciables).
Si això es confirma, podria ser objecte d’un premi Nobel.
Nota: La font d’aquest bloc és una comunicació de la revista Astronomy del 22 maig del 2015 on cita l'article de Vachaspati al Monthly Notices de la Royal Astronomical Society del 14 de maig.

diumenge, 17 de maig del 2015

La vida a la Terra ja ha fet el 80% del seu recorregut temporal


Tot i que el Sol està a només el 50% de la seva existència i trigarà uns 5.000 milions d'anys a convertir-se en una geganta vermella i desprès en una nana blanca , la vida a la Terra ja ha recorregut el 80% de la seva trajectòria temporal. Els fòssils més antics que coneixem són de fa uns 3.400 milions d'anys, però la vida potser va emergir fa uns 4.000  milions d' anys . Durant molt de temps la vida a la Terra es va reduir a organismes unicel·lulars. Va ser fa 500 milions d'anys quan van aparèixer formes de vides més complexes i tan sols fa uns 100.000 anys que va aparèixer la nostra espècie. El Sol s'està escalfant i en uns 1.000 milions d'anys els oceans bulliran i la vida desapareixerà . Des del nostre punt de vista això és una enormitat , però a escala còsmica és un període relativament breu .

 

dimarts, 12 de maig del 2015

La fi de la llei de Moore


Haureu sentit a parlar de la llei de Moore per la qual la capacitat dels ordinadors es dobla cada 18 mesos, segons algunes versions. De fet, Gordon Moore, que va ser president d’Intel,  va escriure un article en el 1965, quan era el director de recerca i desenvolupament de Fairchild Semiconductor, en el que predeia que la densitat de transistors que es podien posar en un xip a un cost raonable es doblaria cada any.  Una dècada més tard va rebaixar aquesta predicció a que la densitat es doblaria cada dos anys.

Ara bé no va explicar com aquest augment de densitat faria als ordinadors doblement eficients. Això ho va fer Robert Dennard d’IBM en el 1974 demostrant que quan els transistors es fan més petits, el corrent i el voltatge per a encendre’ls i apagar-los també es redueix.  Durant 30 anys aquest va ser el secret de que la llei de Moore funcionés. Quan es van ultrapassar els 65 nanòmetres (la meitat de la llargada d’un virus de la SIDA) es van començar a observar efectes quàntics i els transistors ja no eren fiables perquè es perdien electrons.  Per tant, es podria dir que la llei de Moore va deixar de ser operativa fa 10 anys, en el sentit de que, encara que Intel va continuar posant més transistors en un xip, això no es va traduir en ordinadors més ràpids i barats.  Endemés, els fabricants de xips es van topar amb un mur (the frequency wall) a l’intentar ultrapassar el 4.000 milions d’operacions lògiques per segon. L’excés de calor generat fonia els xips.

Aleshores els enginyers van haver de buscar formes d’eludir aquests problemes afegint processadors (CPUs). Si una CPU de 10 gigahertzs es fon, podem posar 4 CPUs de 3 GHz.  Per a controlar els efectes quàntics van posar tri-gates, que controlen el corrent dels electrons des de tres costats en lloc d’un. I també van usar sistemes que permeten fer tasques que requereixen molts càlculs en xips especialitzats com els que controlen la pantalla de l’iPhone 6. De qualsevol forma, aquests trucs no permetran avançar gaire més en els propers anys en tecnologies basades en el silici.

IBM, per exemple, ha destinat 3.000 milions de dòlars a la recerca de materials alternatius com el grafè, fulls de carboni d’un sol àtom de gruix. S’han construït transistors de grafé que funcionen a velocitats milers de vegades més ràpides que els de silici, almenys en el laboratori i a nivells per sota dels 5 nanòmetres longitud a la qual el silici es veu ja totalment afectat per les lleis de la mecànica quàntica. Però el grafè pur no té “bandgap”, és a dir la diferència d’energia entre els orbitals en els quals els electrons estan agafats a l’àtom i els que circulen lliurament i participen en la conducció.  Sense aquesta diferència no és fàcil fer funcionar el grafè com un transistor que s’encén i s’apaga i d’aquesta forma codificar els zeros i uns que són la base de la computació. Els nanotubs de carboni poden ser una alternativa. Són fulls de grafè enrollats en foma de cilindre.  Poden adquirir una bandgap que els fa semiconductors. A l’escala de 10 nanòmetres no tenen rival des del punt de vista del funcionament.  Representarien una millora de 5 vegades en funcionament i eficiència energètica respecte del silici. Però són estructures delicades. La seva bandgap pot desaparèixer si el diàmetre el nanotub sofreix petites variacions o si el l’angle d’enrotllament canvia una mica.

Un altre tema important en informàtica és la memòria caché, on s’emmagatzemen les instruccions a les que s’ha d’accedir de forma freqüent. Els ordinadors tenen una jerarquia de memòries, la caché o SRAM, la principal i la del disc dur. Sense memòria de gran capacitat i de ràpid accés, les millores en la CPU tampoc serviran de res.  La SRAM és ràpida, però es menja molta energia i té poca capacitat. La memòria principal o DRAM es força ràpida, densa i duradora, però desapareix a l’apagar l’ordinador i, per això, es necessita el disc dur. Aquesta darrera memòria té alta capacitat i consumeix poca energia, però és molt lenta. Els enginyers tracten d’unificar aquests tres tipus de memòries i el memristor pot ser una primera solució en aquest camí (més avall copio el bloc sobre aquest tema). HP està treballant en aquesta direcció.  Van crear el primer memristor en el 2008 i ara estan construint un ordinador basat en aquesta tecnologia. Els memristors poden substituir al disc dur i la DRAM. Per arribar al nivell de funcionament de la SRAM, els memristors s’haurien de posar junt a la CPU, però això no és possible amb la tecnologia actual. HP pensa usar la fotònica, enviant polsos de llum làser en lloc d’electrons. D’aquesta forma seria possible construir superordinadors de grandària reduïda i molt eficients energèticament. Encara que les xips de silici no es poguessin fer més petis de 7 nanòmetres o més ràpids de 4 GHz, el funcionament dels ordinadors seria molt superior.  Això és especialment important en la nova era de la internet de les coses (IoT en anglès) on molts sensors faran incrementar la quantitat de petabytes de dades que es passaran entre centres de computació.  Si es pogués obtenir la capacitat dels superordinadors actuals amb grandària reduïda i eficiència energètica, les dades podrien ja ser pre-processades localment.

Si HP té èxit, l’arquitectura dels ordinadors continuarà essent, de totes maneres, la dissenyada per Von Neumann en el 1945: una unitat de procés, per a executar les instruccions, un banc de memòria per emmagatzemar-les i també les dades sobre les quals s’han d’efectuar les instruccions i una connexió o bus que uneix les parts. Aquesta arquitectura és òptima per a executar instruccions simbòliques en una seqüència lineal.  Però avui en dia, es necessiten ordinadors que actuïn en paral·lel com  quan cal seleccionar una imatge d’un vídeo o s’ha de guiar un robot autònom per un terreny abrupte. Són aquelles facultats en les que el cervell humà encara supera als ordinadors.   Aquí entrem en el reialme de la computació cognitiva de la qual també hem parlat en el darrer bloc.  IBM ha desenvolupat un xip anomenat TrueNorth que conté més de cinc mil milions de transistors que modelen un milió de neurones i 256 milions de connexions sinàptiques.  Es capaç de trobar patrons iguals a un donat i usa l’energia d’un punter làser.  Aquesta arquitectura té també algunes limitacions, per la qual cosa convé combinar l’arquitectura clàssica Von  Neumann (pels càlculs precisos) amb la TrueNorth (per la detecció de patrons).  Sembla, per tant, que amb noves tecnologies com les nanotubs o els memristors obtindrem millores a mig termini, però canviant l’arquitectura podem obtenir substancials millores en el curt termini.

Segons els experts d’Intel el que està morint és l’era de l’ordinador de propòsit general.  Ara amb l’objectiu d’obtenir el menor cost amb el millor funcionament entrem a l’era de la computació heterogènia. Es a dir sistemes optimitzats per a funcions concretes.  Els clients no compren xips sinó que compren funcions. Com exemple, un processador gràfic no està destinant a fer la funció d’una CPU.  Això significarà noves formes de programar i, per tant, els programadors hauran de re-aprendre l’ofici.

 
Nota: La font d’aquest bloc és l’article de John Pavlus a Scientific American, maig del 2015.  
 

Bloc antic sobre els memcomputers.

Els ordinadors actuals tenen separades la memòria on es troben les dades de la unitat de processament. Així, per exemple, quan usem el Word per a escribir una frase l’ordinador mou una sèrie de zeros i uns, la representació que usa la màquina de les paraules del document, d’una àrea temporal de memòria i l’envia a una altra part física de l’ordinador, la CPU o unitat central de procés, per mitjà de cables. La CPU transforma les dades en les lletres que veiem en la pantalla. Per a que el que hem escrit no desaparegui quan apaguem l’ordinador les dades que representen les lletres han de tornar a un lloc més estable de la memòria que és en el disc dur.

Aquestes passes amunt i avall no es poden evitar perquè avui les memòries no poden processar ni els processadors poden guardar memòries. Això alenteix els ordinadors i els fa molt ineficients des del punt de vista enèrgetic. Recordeu quanta electricitat consumia el Mare Nostrum .  Els superordinadors que treballen en paral·lel també tenen el mateix problema perquè cadascun dels seus milers de processadors tenen la mateixa limitació. Avui en dia, els sectors de la comunicació i de la informació ja consumeixen el 15% de l’electricitat global. Endemés la fabricació de transistors aviat arribarà a un límit tecnològic, molt probablement en el 2016, ja que la grandària dels components ja no es pot reduir més sense comprometre la seva funcionalitat. La recerca científica també es veurà afectada perquè moltes qüestions importants com la predicció del temps o de epidèmies analitzant grans bases genòmiques requeriran més i més potència dels ordinadors.

Els ordinadors actuals usen resistències que impedeixen el pas del corrent elèctric, condensadors que guarden les cargues elèctriques i inductors que transformen corrents elèctrics en camps magnètics. Ara s’estan desenvolupant equivalents anomenats memristors, memcapacitors i meminductors que retenen els seus canvis d’estat i aquesta “memòria” permet fer càlculs complexs molt ràpidament. Es preveu que en un futur podrem construir memcomputers. De fet, el cervell es comporta de forma similar a un memcomputer ja que les neurones processen informació al mateix temps que la guarden en memòria. El cervell és una mena d’ordinador que treballa en paral·lel de forma molt eficient. Pot efectuar 10.000  bilions d’opracions per segon usant uns 10 watt, mentre que un  superordinador usa uns 100 milions de watt per a fer al mateix nombre d’operacions.

Per entendre com funciona un memristor imaginem que el memristor és un tub  i el corrent elèctric és aigua. Si l’aigua circula de dreta a esquerre, el tub es fa més ample i al revés si circula d’esquerre a dreta. Si interrompim el pas de l’aigua, el tub conserva la seva amplada.  Si ara canviem aigua per corrent elèctric i tub per memristor entendrem que la resistència es pot assimilar a un nombre i el canvi a un càlcul, per tant, el memristor pot procesar informació i guardar-la.

Endemés, els memristors es poden fabricar en les mateixes fàbriques de semiconductors en una varietat de materials amb dimensions de nanòmetres i, per tant, es poden fabricar a escala industrial. De fet, la idea del memresistor ve dels anys 1970.

Els memcapacitors també existeixen ja, però són relativament cars perquè els materials ferroelèctrics que s’usen són costosos, encara que ja s’està investigant per a fer-los de silici.

Els meminductors també ja es fabriquen però són més grans perquè usen bobines de cables, però es creu que avenços en materials possibilitaran fer-los molt petits com ha passat amb els memristors. Alguns investigadors ja han començat a usar el disseny dels  memcomputers per provar la seva viabilitat. Un problema complex que es fa servir per a testar superordinadors és el problema de trobar la sortida d’un laberint. Un dels algoritmes més habituals és seguint el mur d’un laberint, evitant els espais buits on el mur s’acaba. Es un procés lent que es fa pas a pas. La idea que van fer servir els investigadors, en una simulació, és col·locar un memristor a cadascun dels llocs on el mur gira i aplicar un impuls elèctric d’un sol voltatge a l’entrada i a la sortida del laberint. El corrent només fluirà pel camí de sortida. Amb el flux del corrent, els memristors per on passa canvien de resistència. Quan l’impuls desapareix la solució quedarà gravada en els memristors que han canviat la seva resistència. Tots els memristors computen la solució al mateix temps, en paral·lel.

Els memcomputers també mostren la seva eficàcia en un dels problemes més difícils en la ciència de la computació: calcular les propietats d’una sèrie molt llarga de nombres enters. Aquesta és la tasca que cal fer quan es vol desxifrar codis complexs. Per exemple si en una sèrie de 100 nombres enters positius i negatius volen esbrinar si algun subconjunt suma zero. Si un ordinador és capaç de donar resposta a aquesta pregunta en un segon per una sèrie de 10 nombres, per una de 100 trigaria 10 elevat a 27 segons, més d’un trilió d’anys. Un memcomputer podria fer-ho en un segon de manera similar a la usada en el problema del laberint.

De moment, encara que ja tenim els components d’un memcomputer, un ordinador basat en aquesta arquitectura no està disponible comercialment. Un dels reptes serà escriure el software adequat per a controlar-lo.  També s’està pensant en ordinadors híbrids que facin servir la mateixa arquitectura actual per a tasques senzilles, però que usin els nous components per a tasques que ho requereixin. En el futur sentirem a parlar molt de memristors i els altres components ja esmentats. Podria ser que a la volta d’uns quants anys portessim a la mà un aparell que pogués reconèixer patrons o modelar el clima de la Terra a una escala molt fina.

 

 

 

diumenge, 3 de maig del 2015

Avenços i perills de les màquines intel·ligents


Darrerament algunes personalitats de la indústria tecnològica i alguns científics han expressat preocupació pel perill que poden representar en el futur les màquines intel·ligents, cosa que ja havíem comentar en un anterior bloc. Stephen Hawking, Bill Gates, Sam Altman i Elon Musk són algunes d’aquestes personalitats. Aquest últim va quedar molt impressionat per la lectura del llibre del professor d’Oxford Nick Bostrom titolat Superintelligence. Paths, Dangers, Strategies.




Jeff Hawkins, però, ha posat una nota de moderació en aquest debat.  Hawkins defineix intel·ligència com allò que fa el neocòrtex i diu que consciència és simplement el que sents al disposar d’un neocòrtex.

Segons ell, les principals pors dels que temem la IA provenen de la confusió entre intel·ligència, consciència i autoreproducció. Diu que, contràriament al que va afirmar Descartes, l’ésser no es deriva del pensar sinó que els dos poden coincidir, Penso, Existeixo, però sense relació causal. Endemés, intel·ligència i emocions, desitjos i passions no van necessàriament juntes.  El cervell es pot pensar dividit en dues parts. Un és el neocòrtex, seu de la intel·ligència, i  la segona, la resta. Les altres parts són més antigues en l’evolució i són responsables dels instints, les emocions i passions com l’odi, el desig sexual, la cobdícia, etc.  El neocòrtex és extremament flexible i capaç d’aprendre diverses llengües, matemàtiques, música, com dissenyar edificis o ordinadors, etc.  Aquesta flexibilitat prové del fet descobert en el 1978 pel neurofisiòleg Vernon Mountcastle de que el neocòrtex usa el mateix mètode d’aprenentatge per tot el que fa.  Hawkins insisteix que l’essència de la intel·ligència és la capacitat per l’aprenentatge. 

Hawkins diu que les màquines intel·ligents estaran basades en models del neocòrtex, no de la resta del cervell. El que volem de les màquines és la seva capacitat per l’aprenentatge, no la seva capacitat per a sobreviure i reproduir-se en el medi ambient. Per tant, no caldrà que tinguin sentiments ni valors ni desitjos.  Es un problema obert que això sigui possible o que ho haguéssim de permetre. També la capacitat d’autoreproducció és un problema diferent del de la intel·ligència.  Evidentment, si un organisme artificial i intel·ligent fos capaç de reproduir-se en el medi ambient, això seria que seria un risc. Afortunadament estem lluny de ser capaços de construir una entitat artificial (no basada en l’ ADN/ARN) que tingui aquesta capacitat.  Com sempre, el perill està més en els homes que desenvolupin aquests tipus d’artefactes més que en els artefactes ells mateixos. Segurament si l’avió de Germanwings hagués tingut un pilot artificial intel·ligent, l’accident s’hagués pogut evitar.

Per altra banda, encara que tinguem màquines superintel·ligents, tampoc això produirà un creixement exponencial del coneixement. La intel·ligència és el resultat d’aprendre i per aprendre hem d’observar.  Si una màquina superintel·ligent ha de progressar sobre el coneixement de les partícules elementals caldrà construir un accelerador de partícules més gran que el de Ginebra i si vol observar l’espai profund li caldrà un nou telescopi espacial i això no s’improvisa.  En totes les ciència naturals (no en els matemàtiques) això és un factor limitador.

Hawkins conclou que la tecnologia actual conduirà a màquines intel·ligents que ens ajudaran a analitzar els milions de dades que tindrem a la nostra disposició molt més ràpidament que el cervell humà i trobaran patrons útils en aquestes dades, podran explorar altres planetes o el genoma humà per a resoldre els problemes que plantegen certes malalties, descarregaran als humans de tasques tedioses, però som lluny de poder crear màquines que plantegin les amenaces que alguns líders tecnològics o científics entreveuen. El que hem de vigilar, com sempre, és l’ús que en facin certes persones malignes.
 
Nota: Una de les fonts d’aquest bloc és la newsletter de Numenta del 29.4.2015.  Numenta és una empresa fundada per Jeff Hawkins amb l’objectiu de construir màquines intel·ligents que imitin el funcionament del cervell humà.  IBM ha constituït un grup de 100 persones que estudien els algoritmes proposats per Numenta per tal de construir hardware que pugui suportar el paral·lelisme massiu que pugui fer una realitat el model que proposa Hawkins de com funciona el cervell. Numenta ja comercialitza certs productes com, per exemple, Grok, un software que detecta anomalies en servidors i en aplicacions i descobreix patrons en sèries temporals de dades i que es pot instal·lar des dels serveis de núvol d’Amazon (AWS). Jeff Hawkins va crear el PalmPilot  una mena d’assistent personal similar al que anomenem avui tableta i que podia reconèixer l’escriptura manual.  Va desenvolupar també un dels primers smartphones, el Treo. Es autor del llibre On Intelligence que vaig comentar fa temps en una newsletter. Un altre article interessant és el d’Anthony Wing Kosner, What Reallys Scares Tech Leaders About Artificial Intelligence a Forbes 20.4.2015.