Chat

Chatea gratis con amigos de todo el Mundo

Mostrando resultados del 1 al 10 de 20

Tema: Inteligencia Artificial: ¿Riesgo para la Humanidad?

Threaded View

Mensaje Previo Mensaje Previo   Próximo Mensaje Próximo Mensaje
  1. #1
    Fecha de Ingreso
    17-marzo-2015
    Ubicación
    PTY
    Mensajes
    31

    Lightbulb Inteligencia Artificial: ¿Riesgo para la Humanidad?

    Recientemente, varios famosos del ámbito científico y tecnológico levantaron sus voces, en cuanto al peligro que representa, para la humanidad, la inteligencia artificial.
    Stephen Hawking, Elon Musk, Martin Rees, entre otros firmaron una carta abierta, en cuanto a este tema.
    Los señalamientos que hacen en la carta son los siguientes:
    • 1. Las investigaciones sobre inteligencia Artificial, en la actualidad, buscan desarrollar "estructuras" inteligentes: El objetivo principal de la investigación es la construcción de sistemas que perciben y actúan en un entorno particular al (o superior) nivel humano.
      2. La investigación en inteligencia artificial está avanzando rápidamente y tiene in gran potencial para beneficiar a la humanidad: el progreso rápido y constante en I.A. pronostica un impacto creciente en la sociedad. Los beneficios potenciales son sin precedentes, por lo que el énfasis debe estar en desarrollar inteligencia artificial 'útil', en lugar de simplemente mejorar la capacidad.
      3. "Un gran poder, conlleva una gran responsabilidad": La inteligencia artificial tiene un gran potencial para ayudar a la humanidad, pero también puede ser extremadamente dañina. Por tanto, se requiere muchísimo cuidado para obtener los potenciales beneficios, evitando los potenciales riesgos.

    Dentro de todo éste asunto, los futurólogos, transhumanistas, escritores de ciencia ficción, científicos etc. coinciden en indicar la llamada "singularidad tecnológica"... como un acontecimiento futuro en el que la inteligencia artificial sobrepasa la inteligencia humana, y se mejora a si misma; lo que supondría un antes y un después(para bien o para mal), para la humanidad.
    Por ejemplo, Raymond Kurzweil, uno de los más famosos científicos involucrado en el tema, especula que la fecha para que acontezca la singularidad; sería el año 2045.
    Por su parte, Hans Moravec es menos conservador en sus cálculos y habla del año 2020, para que ocurra dicho evento.
    Estos cálculos y otros, se basan en la ley de Moore (aunque introducen otras variables estadísticas y tecnológicas), que hasta la fecha no se ha roto.
    Ante todas estas predicciones, y la cercanía de esas fechas, todos somos testigos de los avances en la inteligencia artificial, incluso, hace un par de semanas salió una noticia sobre un software que "aprendió videojuegos de atari"; logró aprender a jugar 49 juegos clásicos de atari, y en más de la mitad de los juegos, alcanzó un nivel superior al de los humanos profesionales.
    Estamos claros, que de aquí (aprender-jugar-ganar) a una superinteligencia artificial, faltarían varios años, pero en el ámbito tecnológico, ciertamente esos "varios años" podrían ser 5 ó 10.
    En el evento de una "Singularidad Tecnológica", con una capacidad de aprendizaje casi infinita, los enigmas en infinidad de campos del saber, serían cosa del pasado. Los problemas cotidianos se podrían resolver con las mejores soluciones.
    Sin embargo, algo podría ir muy mal, y ese ente superinteligente, podría llegar, rápidamente a la conclusión que los humanos somos el problema; o podría haber algún problema de software (hablamos de superinteligencia y no de perfección absoluta).
    Última edición por Sci-Fi Android; 20-mar.-2015 a las 16:52
    "El sentido común, es el menos común de los sentidos"

Normas de Publicación

  • No puedes crear nuevos temas
  • No puedes responder mensajes
  • No puedes subir archivos adjuntos
  • No puedes editar tus mensajes
  •