Cita Iniciado por Sci-Fi Android Ver Mensaje
Se deberían extender las leyes de la robótica, a todo tipo de inteligencia artificial:

1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.

3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.1


Resultan fáciles de escribir, pero desde el punto de vista práctico/ filosófico / ético / moral. Resulta extremadamente difícil.
Si, pero me pregunto si un robot con poder de decisión, sería capaz de transgredir la Ley, como lo puede llegar a hacer el humano aún desde la razón (no sólo desde la inconsciencia o las negligencias), ya que parece ser que la meta es fabricar robots que no requieran del control y directiva del humano.

También me pregunto qué pasa si a algún grupo humano le deja de interesar crear robots que puedan cumplir esas reglas.... paso un artículo que leí hace poco al respecto:

Crean un robot que lastima a los humanos y se reabre el debate por las "máquinas asesinas".
Un experto de la Universidad de Berkeley lo construyó para enfrentar al mundo con el dilema de la inteligencia artificial fuera de control.

http://www.clarin.com/sociedad/crean..._Hyi3Lpnd.html