Chat

Chatea gratis con amigos de todo el Mundo

Mostrando resultados del 1 al 2 de 2

Tema: ¿ Tendrá la inteligencia artificial temor a morir ?

  1. #1
    Fecha de Ingreso
    17-marzo-2015
    Ubicación
    PTY
    Mensajes
    31

    Lightbulb ¿ Tendrá la inteligencia artificial temor a morir ?


    Robot Kismet con habilidades sociales rudimentarias
    Museo del MIT
    Licencia CC BY-SA 3.0
    Autor Polimerek 2006

    Cuando la singularidad (tecnológica) llegue, ¿la inteligencia artificial tendrá temor a morir?
    Apagar nuestro dispositivos inteligentes podría ser más difícil.

    • Autor : Mike Brown
    • @mikearildbrown
    • AI
    • Noviembre 7, 2016

    ¿Qué tal si apagar una computadora es como si estuvieras asesinando a un amigo? Suena un poco descabellado, pero si los aparatos inteligentes como la mayoría de los celulares, computadoras, e incluso termostatos fueran inteligentes (y concientes), sería cruel apagarlos. Si pueden hablar, ellos podrían rogarte que lo reconsideraras. Y nosotros nos sentiríamos incómodo cada vez que vayamos a presionar el botón (de apagado). Pero un aparato realmente inteligente, uno con un entendimiento complejo de la sociedad, podría hacer algo más dramático. Podría no permitirnos apagarlo.

    Desde que la inteligencia artificial HAL 9000 se rehusó a abrir la compuerta de la bodega de la nave especial/ estación especial en la película 2001: A Space Odyssey (Stanley Kubrick, 1968); la cultura popular ha estado fascinada con la idea de que la inteligencia artificial podría desear la preservación de su propia vida. Los seres humanos lo hacemos todo el tiempo, y en biología se le conoce como el instinto de auto-preservación. Es lo que nos mantiene vivos: sentimos dolor para evitar situaciones dolorosas, tememos a lo desconocido por lo que buscamos refugio, nos forzamos a mejorarnos para mantenernos vivos.

    Pero algunos investigadores en el campo de la inteligencia artificial, nos indican que dichos entes, muy probablemente, no tengan la misma motivación. Yann LeCun, director de investigaciones en Inteligencia Artificial de Facebook, lo explicó a una audiencia en la Universidad de Nueva York, el mes pasado: “El hecho de que las I.A. (inteligencias artificiales) carezcan del instinto de autoconservación, es precisamente, la razón por la cual no les importará ser apagadas”. LeCun comenta, además, “ que es improbable que tu próximo dispositivo inteligente salga de su caja con el temor a ser apagado”.

    Topio 2.0 Robot humanoide
    Autor Lylodo
    Licencia CC BY-SA 3.0

    “Como humanos, tenemos el instinto de auto-preservación,” continua LeCun. “La motivación que tenemos, y la fibra moral que podamos tener es perpendicular a nuestra inteligencia”.

    En otras palabras, solo porque algo sea inteligente no significa que tenga valores ético/morales (como la autorpreservación o algún tipo de moralidad general), como los hacemos los seres humanos. Otros expertos en I.A. señalan que aunque nuestros dispositivos tecnológicos se hacen cada vez más inteligentes, ellos todavía podrían primero “entender su lugar” como meras herramientas.

    “No me gusta especular más allá de 25 años a futuro, como el punto en el que creo que traspasaremos la realidad desde la ciencia hacia la ciencia ficción,” nos comenta Oren Etzioni, Gerente General del Instituto Allen para la Inteligencia Artificial. “La I.A. durante los próximos 25 años sera una herramienta, no un ente (un ser), y como herramienta, no tendrá instinto de autoconservación.”

    Pero solamente porque a éstas máquinas les falte dicho instinto, no significa que no querrán actuar en formas que pudiesen parecer instinto de autoconservación. El Dr. Stuart Armstrong, investigador del Instituto Futuro de la Humanidad de la Universidad de Oxford, le comenta a la revista INVERSE que la I.A. podría desarrollar “impulsos/motivaciones” hacia ciertos objetivos.

    Digamos que una empresa "X" desarrolla un Nuevo termostato, el cual utilice aprendizaje de máquina para aprender por sí mismo, a lo largo del tiempo, cómo regular a la perfección la temperatura de tu casa. Lograr “el clima perfecto” es el objetivo de esa I.A. Ahora bien, si vas a apagarlo, el termostato podría llegar a la conclusión de que ésta medida es algo que pretende evitar su objetivo.

    “El termostato inteligente determinará que, si es apagado, sera menos probable que alcance sus objetivos, e intentará evitar el apagado,” nos explica Armstrong. Eso no significa que la I.A. interprete el apagado como morir. Además debemos tomar en cuenta que las I.A. pueden ser copiadas (replicadas), por lo que serán “más flexible” ante la definición de la muerte.
    Pero, ¿Qué sucederá más lejos en el futuro?. La Singularidad (tecnológica), que es un punto teórico en el cual la inteligencia artificial sobrepasará la inteligencia humana; que podría llevarnos a una transformación en las relaciones entre humano y máquinas. La mayoría de los expertos coinciden en que dicho evento, está a décadas de suceder, pero las expectativas podrían ser sombrías. Matrix (las películas y el comic) argument que dicha singularidad llevaría a una esclavitud masiva; esa idea nosh ace sentirnos temerosos.

    Asistente Automático Online (Año 2011).
    Licencia CC 1.0
    Autor: Mikael Häggström

    James Miller, profesor asociado en el Smith College, es autor del libro Singularity Rising. El cree que la actitud de las I.A. ante la muerte, podrían determinar si el future es Scarlett Johansson en nuestro bolsillo (película HER, año 2013) , o Hugo Weaving (Agente Smith, en la trilogía de Matrix) ayudando a los robots a exprimir nuestros cuerpos, para obtener energía eléctrica. Miller nos señala que el conflicto puede surgir del impulso de la I.A. para desempeñar su trabajo lo más eficientemente posible, y el hecho que en el universo existe una cantidad limitada de energía disponible (alguna de la cual, es utilizada ineficientemente por lo humanos).

    “Desafortunadamente, los humanos utilizamos la energía disponible, por lo que la I.A. podría extender su vida exterminando a la humanidad,” le comenta Miller a la revista Inverse. “Por lo tanto, para casi cualquier objetivo que una I.A. pudiese tener; su miedo a la muerte podría provocar que nos asesinase.”

    La solución, continua explicando Miller, es programar a las I.A. para respetar a la humanidad, como parte de sus objetivos primaries. Eso, será más fácil decirlo, que hacerlo: expertos en ética están, actualmente, discutiendo a cerca de cómo desarrollar I.A. con sentido ético; precisamente, porque no es sencillo. Tomemos de ejemplo a Isaac Asimov: en sus novelas de ciencia ficción, los robots seguían tres reglas básicas, la primera en la que se le prohibía hacer daño a los humanos. Cualquiera que haya leído sus novelas (o visto alguna de las películas basadas en ellas, “Yo, Robot”, por ejemplo); sabe que existen formas en las cuales las I.A. pueden pasar por encima de dicha regla.

    El truco estaría en “incentivar” a una I.A. a interrumpir sus acciones, de una manera en la que satisfaga sus impulsos. Es por eso que investigadores, incluyendo a Armstrong, están promoviendo el uso de “interruptores de apagado” en los dispositivos equipados con I.A., por si acaso.
    Sigamos con el ejemplo del Termostato inteligente; que desea permanecer encendido porque ha sido programado para obtener una temperatura perfectamente regulada (siempre), la mejor manera de “convencerlo” de eso es hacerle pensar que al apagarse alcanzará sus objetivos. Toda I.A., en segundo plano, le importa resolver el problema para alcanzar su objetivo (lo cual los investigadores pueden cambiar sobre la marcha). Mientras los humanos continúen teniendo el control sobre los dispositivos, podremos hacer uso de un proceso llamado interruptibilidad segura, en el cual se colocan nuevos comandos en la I.A. (mientras continua funcionando), pero manteniéndola camino a lograr sus objetivos, pero sin que ejecute nada drástico.

    Todavía estamos a muchos años de tener que preocuparnos si apagar la calefacción, resulta en un problema moral. Pero cuando ese dilema llegue, debemos asegurarnos que todavía seamos nosotros los que estemos en control de la situación y poder apagar el botón.

    A cerca del autor: Mike Brown (@mikearildbrown) es un ecritor radicado en Londres, con pasión por la tecnología, política y fotografía. Después de estudiar periodismo en la Universidad de Columbia (Nueva York), regresó al Reino Unido para darle cobertura a las noticias que ocurren a lo largo y ancho de Europa. Su trabajo ha aparecido en importantes publicaciones IBTimes, Neowin, Building Magazine, y otras.
    "El sentido común, es el menos común de los sentidos"

  2. #2
    Fecha de Ingreso
    13-febrero-2008
    Mensajes
    10.138

    Predeterminado

    .



    .
    .

    No seamos voceros del terrorismo.
    No difundamos sus crímenes.

    .

Normas de Publicación

  • No puedes crear nuevos temas
  • No puedes responder mensajes
  • No puedes subir archivos adjuntos
  • No puedes editar tus mensajes
  •