El físico más famoso del mundo, Stephen Hawking, ha propuesto tres puntos de vista importantes sobre el destino del ser humano, que ha suscitado fuertes reacciones en todo el mundo. Pero sus tres opiniones son varios años más tarde que mis trabajos publicados y artículos sobre estas opiniones. Por lo tanto, creo que Hawking ha propuesto tres puntos de vista iguales a los míos, no contrario.
La primera visión: En abril de 2010, Hawking señaló que existen cientos de miles de millones de galaxias en el universo y que cada galaxia tiene cientos de millones de estrellas, por lo que los extraterrestres casi sin duda existen en el universo. Debemos evitar el contacto con los extraterrestres y no entrar en contacto con ellos. Si nos pusiéramos en contacto con los extraterrestres, posiblemente conduciría la ruina del ser humano. Porque los extraterrestres deben tener una tecnología más avanzada que la humana y no podríamos luchar contra ellos, ya que pueden alcanzar la tierra a través de la distancia entre las estrellas. El razonamiento y los ejemplos de Hawking son exactamente coherentes con los míos, pero tres años más tarde que los míos.
El segundo punto de vista: fue en diciembre de 2014, Hawking señaló que la inteligencia artificial finalmente sería dueña de la conciencia de sí mismo y tomaría lugar en el ser humano, porque la velocidad del desarrollo de la tecnología es más rápido que la de la evolución de la criatura. Cuando la inteligencia artificial se desarrolla perfectamente, puede conducir a la extinción del ser humano. El razonamiento y los ejemplos de Hawking son básicamente consistentes con los míos, pero siete años más tarde que el mío.
El tercer punto de vista: No hace mucho tiempo, es decir, en marzo de 2017, Hawking fue entrevistado por el programa London Times y señaló que si la inteligencia artificial no se controlaba bien, conduciría a la extinción de los seres humanos. También defendió que debemos reconocer este tipo de amenaza a mayor velocidad y tomar medidas ante la situación fuera de control. Para lograr el objetivo, es necesario construir un gobierno mundial en cierta forma. El razonamiento y los ejemplos de Hawking son básicamente consistentes con los míos, pero diez años más tarde que el mío.
El dicho de los tres puntos de vista de Hawking, igual que el mío, no es cuestion de mostrar mis logros.
En 1979, una extraña idea me golpeó mucho tiempo después de mis cruzos universitarios. La ciencia y la tecnología eran una espada de doble filo. Podría beneficiar a los humanos, y también podría arruinarlos. Por lo tanto, me preocupaba si la ciencia y la tecnología conducieran a la extinción de seres humanos o no según el desarrollo presente. Si la ciencia y la tecnología exterminan a los humanos, este sería un problema muy importante. ¿Hubo alguna posibilidad de resolver el problema? Pronto lo consideré como un tema de investigación digno. En la vida de uno, no es fácil lograr una causa digna. Poco tiempo después, decidí esforzarme sólo por esto. Dejé el trabajo en una institución nacional para entrar en el negocio por esta causa, porque podría hacer mi investigación y escribir con una mente pacífica después de ganar mucho dinero, y tenía la capital para promover mis logros de investigación.
De hecho, es muy difícil demostrar rigurosamente si la ciencia y la tecnología exterminarán a los seres humanos y encontrarán la solución para la crisis. Pasé casi 28 años en llevar a cabo mi investigación y terminé mi libro "Saving Human Beings" en enero de 2007. Cuando se publicó el libro con 800.000 palabras, lo entregué a 26 líderes, de ellos al Presidente de la RPC, al Presidente de EE.UU., al Secretario General de la ONU Y otros líderes. Pero no hubo comentarios, excepto una llamada de la Embajada de Irán.
En julio de 2007, Saving Human Beings tenía dos volúmenes y fue publicado por Tong Xin Press. Por desgracia, la publicación de mi libro fue detenido por alguna razón sólo después de un día de publicado.
Posteriormente, se publicó mi otro libro " The Biggest Problem", y otros dos libros, "On Human Extinction" y "Saving Human Beings" (Selected Version) fueron publicados en Hong Kong. Además, publiqué muchos artículos sobre mis opiniones. Como resultado, un sitio web llamado "el sitio web de Hu Jiaqi" fue hecho para eso.
Hablé con mucha gente sobre mis opiniones. Pero mis puntos de vista principales fueron considerados como una preocupación sin fundamento, e incluso algunas personas dijeron directamente que mis puntos de vista eran falacias
Mi primer punto de vista básica es que el desarrollo continuo de la ciencia y la tecnología, definitivamente exterminará al ser humano en dos o trescientos años como mucho, dentro de este siglo como pronto. Y creo que este último posiblemente se haga realidad. Nick Bostrom, el director de un instituto fue entrevistado y dijo: "Hay una gran carrera entre las potencias tecnológicas humanas y nuestra sabiduría para usar bien estos poderes. Pero me preocupa que el primero avance demasiado ". Bostrom afirma además que el planeta que golpea la tierra, los volcanes, la explosión nuclear y otros daños no pueden ser amenazas para la existencia del ser humano. La mayor amenaza proviene de los factores inciertos producidos por la innovación tecnológica, por ejemplo, la biología sintética, la nanotecnología, la inteligencia artificial y otros resultados científicos que no aparecen ahora.
Cuando supe que el equipo de investigación del Instituto del Futuro de la Humanidad de la Universidad de Oxford había concluido lo mismo que el mío, me alegré de escribir una carta a Nick Bostrom, profesor y director del Future of Humanity Institute de la Universidad de Oxford un artículo. "Finalmente tengo un amigo de pecho". Las dos partes fueron traducidas al inglés, enviadas a Bostrom y mostradas en el sitio web, pero no hubo ninguna respuesta.
A principios de 2016, el robot desarrollado por Google, AlphaGo, venció el go campeón de la República de Corea, que conmocionó al mundo. Se demostró plenamente que un robot tenía la capacidad de estudiar más a fondo, y la capacidad de ser más considerardo fue terrible. Hawking, Musk, Bill Gates y otros científicos del mundo están muy preocupados por esto. Bill Gates señala: "La inteligencia artificial será tan poderosa que el ser humano comenzará a preocuparse por ello en algunas décadas de años ... No sé por qué algunas personas son completamente indiferentes al respecto". Me insta a considerar que nuestra empresa debe acelerar hasta hacer algunas investigaciones sobre la inteligencia artificial, porque si no se hace, muchas personas lo estarían haciendo. Si hago la investigación, puedo notar la tendencia; Si llega el día del juicio final del ser humano, tal vez pueda ofrecer alguna ayuda en ese momento.
Mi segunda opinión no ha sido aceptada por personas famosas. Es que debemos empezar a restringir estrictamente el desarrollo de la ciencia y la tecnología a partir de ahora para evitar la extinción de los seres humanos.
La ciencia y la tecnología tienen la incertidumbre. Cuanto más avanzada sea la tecnología, más difícil será dominar la certeza. Ahora la ciencia y la tecnología están muy desarrolladas, y si seguimos precipitadamente el desarrollo de la ciencia y la tecnología, los riesgos no se podrán predecir. Si extendemos los logros científicos seguros y maduros en todo el mundo y hacemos una gestión razonable, podremos asegurar que los seres humanos en el mundo tendrían abundante comida y ropa. Si recibimos demasiadas cosas de la ciencia y la tecnología sin restricción, la extinción de la voluntad humana se acercará. Hawking piensa que el manejo de la inteligencia artificial resolverá el problema. Si podemos controlar la inteligencia artificial durante algún tiempo, ¿podríamos controlarla para siempre? Si controlamos un resultado científico, ¿podríamos controlar todos los resultados? Sólo a través del poder político mundial, podremos examinar estrictamente los resultados científicos seguros y maduros, luego difundirlos y utilizarlos. Por último, debemos sellar de forma estricta y permanente otros resultados científicos en el mundo hasta que todos nos olvidemos y, al mismo tiempo, debemos frenar la investigación de la ciencia y la tecnología. Esta es la única manera de crear el futuro sostenible del ser humano.
Todo lo anterior es mi punto de vista. Creo que Hawking no lo dijo de manera profunda y comprensiva. Tal vez la gente piensa que es falacia, pero yo todavía creo que es la verdad.
Debo aclarar que no es que China debiera primero frenar el desarrollo de la ciencia y la tecnología, sino que todos los países del mundo deberían hacerlo de forma sincrónica. Si China tiene la obligación de frenar primero el desarrollo de la ciencia y la tecnología, también me opongo.
Nota: Las opiniones de Hawking, al igual que mis tres puntos de vista, el primero, el segundo y el tercero se refieren respectivamente a la Parte 4 del Capítulo 3 y la Parte 2 del Capítulo 6 en el Volumen 1 y la Parte 5 del Capítulo 1 en el Volumen 2 de Saving Human Beings, También se refirió a la Parte 4 del Capítulo 3, Parte 2 del Capítulo 6, la Parte 4 del Capítulo 8 en La Gran Edición.Algunos contenidos relevantes también están escritos en On Human Extinction y Saving Human Beings (Selected Edition). He publicado algunos artículos sobre Las vistas anteriores.

El autor: Hu Jiaqi, un erudito chino de la investigación del problema humanitario
Presidente y Jefe Scientistof 16Lao Group y Jian Lei Group