Se deberían extender las leyes de la robótica, a todo tipo de inteligencia artificial:
1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.1
Resultan fáciles de escribir, pero desde el punto de vista práctico/ filosófico / ético / moral. Resulta extremadamente difícil de implementar.
Creo que yo sí que votaría por una inteligencia artificial, siempre que hayamos superado nuestro temor a las inteligencias artificiales.
Última edición por Sci-Fi Android; 09-ene.-2017 a las 12:15
"El sentido común, es el menos común de los sentidos"