Stephen Hawking

 

En la edición de diciembre de la revista Wired, el científico inglés Stephen Hawking, se refirió al complejo escenario actual para la ciencia del mundo. Esto, por las medidas tomadas por Donald Trump en cuanto a la inmigración en Estados Unidos (EE.UU.), la inteligencia artificial y la conquista espacial, área que en su opinión debería tener vital importancia en el futuro, si es que la raza humana quiere sobrevivir.

"La gente desconfía de la ciencia porque no entiende cómo funciona", afirmó además sobre el movimiento anti-ciencia generado por algunos grupos. "Es como si estuviéramos viviendo en un tiempo en el que la ciencia y los científicos están en peligro de ser retenidos en una estima baja y decreciente. Esto podría tener serias consecuencias", dijo Hawking.

Asimismo, el teórico manfiestó que, pese a que la sociedad está cada vez más gobernada por la tecnología y la ciencia, cada vez menos jóvenes parecen querer optar por una carrera científica. "Una respuesta podría ser el anunciar un nuevo y ambicioso programa espacial para entusiasmarlos y estimular el interés en otras áreas como la astrofísica y la cosmología”, agregó.

¿Que le diría a Donald Trump?

Hawking cuenta que le preguntaría por qué cree que sus medidas inmigratorias son una buena idea. "Califica como terroristas de Daesh (autodenominados Estado Islámico) a todos los ciudadanos de seis países principalmente musulmanes, pero no incluye a los aliados de EE.UU. como Arabia Saudita, Iraq y Qatar, que supuestamente ayudan a financiarlos". A juicio del físico, esta prohibición general es ineficiente e impide que el país reclute personas calificadas de estas naciones.

Además, el investigador contó le pediría a Trump que renunciara a su negación del cambio climático, lamentando que sus peticiones no se harán realidad "mientras Trump continúe apaciguando a su electorado”.

El físico teórico también se refirió a los peligros potenciales de la inteligencia artificial, un área donde ha insistido en los últimos años. "El genio está fuera de la botella. Necesitamos avanzar en el desarrollo de la inteligencia artificial, pero también debemos ser conscientes de sus peligros reales. Me temo que esta tecnología puede reemplazar a los humanos por completo, señaló el astrofísico, añadiendo que si las personas son capaces de diseñar virus informáticos, en algún momento alguien diseñará inteligencia artificial que se replique a sí misma. "Esta será una nueva forma de vida que superará a los humanos", afirmó.

Stephen Hawking se refirió además al duopolio digital de Facebook y Google, señalando que le preocupaba el control que las grandes corporaciones tienen sobre la información. "Las corporaciones siempre promoverán historias que reflejen bien sobre ellas y supriman aquellas que no las reflejan".

Finalmente, el teórico entregó su opinión sobre qué investigación científica debe llevarse a cabo con la mayor urgencia, apuntando a seguir rigurosamente un programa de exploración espacial, con el objetivo de colonizar eventualmente los planetas para la habitación humana: "Creo que hemos llegado al punto de no retorno. Nuestra Tierra se está volviendo demasiado pequeña para nosotros, la población mundial está aumentando a un ritmo alarmante y corremos el riesgo de autodestruirnos".

"Ya sea que esto sea el resultado del daño al medio ambiente o una guerra nuclear de proporciones devastadoras, tenemos que buscar activamente una forma alternativa de vida si la raza humana va a sobrevivir durante otros 1.000 años”, sentenció.