Debate inteligencia artificial – argumentos en contra

LAS MÁQUINAS SON SOLO MÁQUINAS

  • El debate es ocioso e inútil: no hay en la actualidad robots tan inteligentes que puedan optar por tomar una decisión ética. Incluir un sistema de decisión ética, por ejemplo, al piloto automático de un avión o a una lavadora, es innecesario. Si un avión se desvía de su ruta porque su piloto automático funciona mal, lo único que hay que hacer es desactivarlo; si una lavadora no deja bien la ropa, únicamente hay que llamar a un técnico para repararla.
  • Los robots no difieren en nada de una batidora casera o de un automóvil que aparque automáticamente, por mucha inteligencia artificial que se les incorpore: son máquinas que funcionan bien o mal.
  • Si consideramos sinónimo la palabra “instrucciones” sinónimo de “sistema ético” no hay problema. Estamos a favor. Pero si consideramos que la palabra ética incluye conceptos propios de los seres humanos como bien y mal, responsabilidad o libertad, estamos completamente en contra. Las máquinas, por mucho que sean autónomas, siempre serán máquinas. Para nosotros no hay una diferencia esencial entre una tostadora y el robot más complejo. La tostadora y las máquinas autónomas son cosas que se compran y cuando se estropean, hay que remplazarlas sin más.
  • Evidentemente hay que dar instrucciones a las máquinas para que no perjudiquen ni a los seres humanos, ni a cualquier animal o cosa. Pero de ahí a llamar a esas instrucciones “ética” hay un abismo infranqueable. En el planeta Tierra únicamente los seres humanos toman decisiones éticas.
  • Es importante tener en cuenta que para considerar al robot como un agente moral habría que configurar la posibilidad de que pudieran realizar comportamientos inmorales de forma consciente; y eso no se hace y está claro que no debería hacerse. Considerar a los robots como agentes morales implicaría el que estos fueran conscientes de las consecuencias de sus acciones y el que fueran capaces de incumplir reglas. Pero claro, surge entonces una pregunta muy sencilla: ¿para qué queremos fabricar máquinas que incumplan nuestras reglas?

RESPONSABILIDAD DEL FÁBRICANTE O DEL USUARIO

  • No hay que darles ningún sistema ético, porque nunca se les debe dar ninguna responsabilidad. Los responsables son las personas que ponen en marcha a las máquinas.
  • Hay que diferenciar entre ética y normas de seguridad. La seguridad del producto la debe asumir el fabricante a la hora de ponerlo a la venta y del comprador cuando lo utilice. Una escopeta no debe estallar cazador mientras la utiliza, y tampoco el cazador debe disparar a una persona. Un muñeco parlante no tiene que incorporar elementos que puedan perjudicar a los niños, ni los padres deben permitir que los niños los tiren por el balcón que dé a una calle transitada.
  • Recientemente ha saltado el escándalo de Wolkswagen. Los fabricantes han introducido un mecanismo para esconder que el automóvil emitía más gases contaminantes de los permitidos. Los automóviles estaban diseñados para engañar a los técnicos de las ITV (Inspección técnica de vehículos). El descubrirse la estafa, ¿alguien ha responsabilizado a los automóviles? Por supuesto que no. Los únicos responsables son los fabricantes.
  • Podríamos decir que la ética para las personas se basa en no hacer daño de ningún tipo (ni psicológico ni físico) a otras personas. Un coche inteligente que conduzca autónomamente sin la intervención del conductor en un accidente puede ocasionar daño a otros coches y a las personas. Pero los responsables serán siempre el conductor o el fabricante. Actualmente, nadie se plantea otro dilema.
  • Hay que diferenciar entre responsabilidad y sistema ético. Por supuesto que, a las máquinas autónomas hay que introducirles órdenes en su sistema operativo para que no ocasionen ningún daño. Las preguntas que hay plantearse en realidad son: ¿Quién es propiamente responsable de una eventual mala acción realizada por un robot? ¿El robot o su constructor? ¿El constructor o el programador? Al final, los responsables de las acciones de una máquina autónoma son las personas. Es lo que defiende el grupo de investigación de la Universidad de Pisa, Departamento de Filosofía. (Eikasia. Revista de Filosofía, año III, 1julio 2008).

MÁQUINAS SIN DERECHOS

  • La ética implica una capacidad de elegir entre el bien y el mal y también capacidad para asumir responsabilidades. Las máquinas no son equiparables a personas libres. A las máquinas si provocan daños, solo hay que desconectarlas, no pedirles explicaciones.
  • De los robots no hay que esperar decisiones éticas ni tampoco espontáneas. Son inferiores a los animales. De los animales domésticos, por ejemplo un perro, esperamos que proporcionen espontáneamente cariño y que se comporten bien. Pero ese comportamiento está muy alejado de la ética. Cuando un perro es peligroso esperamos que su dueño lo ate y, si es muy peligroso, que los autoridades tomen medidas enérgicas.
  • Nadie está de acuerdo con la esclavitud. Pero nadie piensa que un caballo sea un esclavo porque se le haga participar en carreras. Los caballos, como las máquinas, no pueden ser esclavos porque no son personas.
  • A un hombre que comete un delito se le juzga y se le condena a la cárcel. ¿Tiene sentido encarcelar a un robot que cometa un delito? Evidentemente no.

SERES HUMANOS CON PROBLEMAS

  • Las personas tienen cada vez más aparatos. Pero, ¿los aparatos les hacen más libres? Este es el verdadero debate. Los seres humanos somos cada vez más dependientes de la tecnología, que es verdad, nos ofrecen todo tipo de posibilidades. ¿Hasta qué punto esta dependencia es buena? ¿Hasta qué punto no supone una huida de la realidad? Quien tenga más aparatos y mejores, ¿es más libre y mejor? La palabra clave es Tener y el debate real está entre TENER Y SER. Ser o tener, un debate antiguo que afecta a la humanidad desde siempre. Nosotros, está claro, entre tener cosas y ser personas con nuestras limitaciones, optamos por SER personas.
  • Las máquinas autónomas no deben sustituir a los seres humanos. Pongamos que se pueden crear robots que sustituyan a las personas en el cuidado de los niños o de los mayores. Esta posibilidad representará:
  1. problemas seguridad y responsabilidad por el comportamiento del robot sino, lo que es más importante, un posible aislamiento social
  2. un cambio en las relaciones sociales (un niño se sentirá identificado con la máquina que lo cuide)

Dejar en manos de las máquinas a los niños, a las personas mayores o a los enfermos es una forma triste de     abandonar a los débiles e incumplir las obligaciones que las personas tienen con respecto a sus familiares.

  • A las máquinas se les puede programas para que proporcionen afecto. El que una persona solo se relacione con máquinas, es síntoma de problemas psicológicos. Análogamente, una persona que viva más pendiente de las redes sociales por internet, muestra también una serie de problemas psicológicos.
  • Las maquinas pueden simular que dan afecto o que actúan con códigos éticos. Pero únicamente es un simulacro. Las máquinas ni tienen sentimientos ni distinguen el bien y el mal. Su afecto y su ética son artificiales.

UN FUTURO AMENAZANTE

  • No se debería permitir que los robots evolucionaran tanto que pudieran hacer daño a los seres humanos. La sociedad y los gobiernos deberían limitar los avances tecnológicos para que esto no sucediera nunca. Por lo mismo que desde 1997 se firmó una convención internacional para prohibir las minas antipersonales, también habría que prohibir los robots utilizables como armamentos. Los avances tecnológicos no son siempre buenos ni siempre deseables. Los seres humanos deben limitarlos siempre que sea oportuno.
  • El argumento más evidente de por qué hay que limitar la investigación en inteligencia artificial y máquinas autónomas son los drones militares. Se están creando para matar seres humanos. Las máquinas evitarán la muerte de soldados de uno de los bandos, pero matarán a los del bando contrario.
  • Toda esa inversión debería estar dedicada a mejorar la vida humana y no a destruirla. Con toda seguridad, si se invirtiera todo el tiempo, dinero e inteligencia que se gastan en armamento e investigación militar, en fomentar la paz, muchas de las guerras no serían necesarias.
  • Si construimos robots con características humanas, habrá un momento en que, siguiendo los instintos humanos, los robots querrán independizarse y dejar de ser esclavos de los humanos. Posiblemente entonces habrá una guerra en la que los robots amenacen la mera existencia humana.
  • Los robots, siempre deben obedecer las leyes con las que han sido programados. En caso de que desobedezcan será terrible para los seres humanos.
  • El cambio climático, los accidentes nucleares o las armas químicas son ejemplos de lo peligroso que pueden ser las consecuencias de los adelantos tecnológicos. Los seres humanos deberían formularse hasta dónde quieren llegar y si no sería mejor dejar de avanzar por caminos peligrosos para la humanidad.
  • El armamento que se utiliza actualmente es capaz de destruir a todos los seres humanos. La carrera armamentística ha llevado a la locura de crear armas de destrucción masiva con las bombas nucleares. Ahora se quiere crear soldados con capacidad de matar personas. La humanidad está amenazada y debemos parar esta locura tecnológica. Las películas de ciencia ficción nos advierten de que podemos provocar nuestro propio apocalipsis.

Deja una respuesta