Miedo en Oxford y Cambridge: ponen en marcha un Departamento del fin del mundo.

¿Qué clase de departamento debería tener una universidad si quiere contarse entre las mejores del mundo? Los de semiótica, lingüística y filosofía parecen imprescindibles en las carreras de letras, así como los de física, biología o química en las ciencias. A dicha lista está añadiéndose uno nuevo que puede sonar al lector desprevenido a ciencia-ficción o paranoia conspirativa, pero que ya se encuentra implantado en las universidades más señeras del mundo, como son Oxford o Cambridge. Se trata del departamento de riesgos existenciales, como se denomina en Cambridge, o el Instituto de la Vida de Futuro, nombre que ha recibido en el americano MIT. También podríamos llamarlo, familiarmente, como el Departamento del Fin del Mundo.

La misión básica de todos estos centros es anticipar aquellas situaciones a las que la tecnología nos puede llevar en las próximas décadas, y de qué manera podemos evitar que la humanidad tome un camino equivocado. Se trata, en su mayor parte, de hacer frente a las pesadillas de la alta tecnología, en especial las pandemias creadas por la bioingeniería y la nanotecnología, así como por el desarrollo de la inteligencia artificial. Hipótesis de futuro que pueden cercenar la vida de millones de personas en un segundo, y cuya peligrosidad se ha multiplicado exponencialmente desde que en los años 40 la bomba nuclear diese al hombre por primera en su historia la posibilidad de arrasar la vida sobre la tierra.

jaan-tallinn-cofundador-de-skype-es-uno-de-los-principales-inversores-de-estos-departamentos

No se trata solamente de las apuestas realizadas por las universidades sino, sobre todo, de los nombres propios que han dado luz a dichas empresas. Uno de los más célebres es el estonio Jaan Tallinn, fundador de Skype, que ha invertido cerca de dos millones de dólares en distintos proyectos de este tipo, entre los que se encuentran el FHI (Future of Humanity Institute) de la Universidad de Oxford, fundado en el 2005. O Eliezer Yudkowsky, teórico computacional que ha señalado que el auge de la inteligencia artificial puede ser devastadora del hombre. O el autor de The Final Hour (2004), Martin Rees, que en dicho libro señalaba que las probabilidades de supervivencia del hombre a final de este siglo no superan el 50%. Son sólo algunos de los hombres de aquellos que se han propuesto alertar al hombre de los males que se avecinan.

Algo maligno se acerca por ese camino

De entre todos esos nombres, quizá el más relevante sea el del filósofo sueco de 21 años Nick Bostrom, autor de Superinteligencia: caminos, peligros, estrategias (Oxford University Press), que fundó el departamento de la Universidad de Oxford y colabora también en el centro de la Universidad de Cambridge, conocido como Centre for the Study of the Existencial Risk (CSER). Un reciente artículo publicado en The New Statesmen entrevistaba al pionero de este grupo de investigación sobre “las consecuencias apocalípticas de nuestros actos”. “Es como un niño al que se le pone en las manos un arma cargada, cuando debería estar jugando con soldaditos o cascabeles”, explicaba. “Como especie, tenemos acceso a tecnología para la que deberíamos tener una madurez mayor”. Actualmente, su departamento cuenta con 18 investigadores seleccionados de un amplio ramillete de disciplinas.

El problema, señala, es que no hay vuelta atrás, y que es imposible convencer de forma amistosa a las industrias tecnológicas y políticas de que quizá no deberíamos investigar más sobre la inteligencia artificial o la biotecnología. Tampoco ello sería una buena opción, puesto que estas pueden resultar muy beneficiosas bien utilizadas. ¿De qué manera se puede manifestar dicha amenaza? Como recuerda, hoy en día existe cierto consenso respecto a que en los próximos 50 años seremos capaces de crear inteligencia artificial semejante a la de un humano. Y de igual manera que las prestaciones de los ordenadores han aumentado sensiblemente en los últimos años, esta inteligencia se multiplicaría de forma exponencial en poco tiempo.

No es la inteligencia el problema, sino la capacidad de control de la misma. Bostrom señala que el ser humano ignora totalmente a los gorilas porque es consciente de que se trata de seres cuya inteligencia no se puede comparar a la de los hombres y, por ello, ha creado una sociedad que busca satisfacer únicamente las necesidades humanas. De igual manera, es probable que la nueva inteligencia artificial simplemente estableciese una sociedad al margen del ser humano. No es la peor de las posibilidades, pero sí una de las más probables.

DEPARTAMENTO DEL FIN DEL MUNDO

Millones de humanos menos en unos minutos

Aún más peligrosa resultan las amenazas de la biotecnología. Este mismo año, el profesor de la Universidad de Wisconsin Yoshihiro Kawaoka fue capaz de crear una cepa mortal del virus de la gripe aviar H1N1, resistente al sistema inmune y que podría acabar con el 5% de la población humana. De caer en malas manos, o en caso de que alguien consiguiera crear un virus semejante, la humanidad se encontraría desprotegida ante ataques bacteriológicos. Como señala Martin Rees en un reportaje publicado en Salon, “mi mayor pesadilla es el lobo solitario fanático de la ecología y con conocimientos de biotecnología que cree que sería mejor para el mundo si hubiese menos humanos saqueando la biosfera”.

Frente a ello, otras amenazas como la del cambio climático parecenrelativamente amables. El propio Bostrom señala que, aun en el caso de que el informe Stern sobre el cambio climático fuese cierto y el efecto invernadero provocase la reducción del 20% del producto interior bruto de la economía mundial, ello simplemente nos devolvería “a la riqueza de hacer 10 o 15 años”, una mera disrupción transitoria a largo plazo. Por su parte, Taallin convenció de la utilidad de su empresa a Huw Price, profesor de filosofía de Cambridge, después de recordarle que las posibilidades de morir por un desastre relacionado con la inteligencia artificial eran más altas que de morir de cáncer o de un ataque al corazón.

Pese a que el apocalipsis es lo que les da de comer, sus palabras no están llenas de pesimismo. Rees aclara que sus preocupaciones son el correlato de un futuro que se presenta brillante para el ser humano, siempre y cuando se controlen los peligros, y Bostrom recuerda que podemos dar lugar a criaturas con “mentes planetarias que piensen y sientan cosas más allá de nuestra comprensión que vivan durante miles de millones de años”. Por ahora, y antes de eso, se conforman con contar con unos 4 millones de dólares anuales para sus proyectos. Una cantidad simbólica a cambio de salvar al ser humano de su propia extinción. ¿O no? Price no lo tiene tan claro: “No tengo una gran confianza en que vayamos a marcar una gran diferencia, pero creo que sí contribuiremos un poco. Y, dado que estamos tratando con costes potencialmente gigantescos, creo que merece la pena hacer una pequeña aportación, que es como ponerse el cinturón de seguridad: merece la pena hacer un pequeño esfuerzo porque hay mucho en juego”.
Leer más:    http://goo.gl/JZypYZ

Descárgate  Gratis  Nuestra  App

FALDON App

 

PLUGINS ACTIVOS PARA ESTA PÁGINA

Array ( [1] => ewww-image-optimizer/ewww-image-optimizer.php [2] => mailpoet/mailpoet.php [3] => scp-cookies/scp-cookies.php [4] => woo-permalink-manager/premmerce-url-manager.php [5] => woocommerce-legacy-rest-api/woocommerce-legacy-rest-api.php [6] => woocommerce-payments/woocommerce-payments.php [8] => woocommerce/woocommerce.php [9] => wordpress-seo/wp-seo.php [10] => wp-fastest-cache/wpFastestCache.php [11] => wp-featherlight/wp-featherlight.php [12] => wp-pagenavi/wp-pagenavi.php ) <?php
$data 
=
array (
  
=> 'ewww-image-optimizer/ewww-image-optimizer.php',
  
=> 'mailpoet/mailpoet.php',
  
=> 'scp-cookies/scp-cookies.php',
  
=> 'woo-permalink-manager/premmerce-url-manager.php',
  
=> 'woocommerce-legacy-rest-api/woocommerce-legacy-rest-api.php',
  
=> 'woocommerce-payments/woocommerce-payments.php',
  
=> 'woocommerce/woocommerce.php',
  
=> 'wordpress-seo/wp-seo.php',
  
10 => 'wp-fastest-cache/wpFastestCache.php',
  
11 => 'wp-featherlight/wp-featherlight.php',
  
12 => 'wp-pagenavi/wp-pagenavi.php',
);
?>