Sistemas inteligentes y sus sociedades Walter Fritz

La ética del sistema inteligente artificial

 

Observando el mecanismo interno de un SI artificial, vemos cómo los sentidos aportan las comunicaciones desde el entorno, cómo el SI forma los conceptos, cómo hace una breve lista de reglas de actuación para poder elegir una y, finalmente, cómo elige una de ellas. Bien, aquí no nos concierne la respuesta que el SI elige. Debemos recordar, que el SI elige cualquier respuesta, al azar, pero elige las mejores más frecuentemente. De manera que nos interesa la primera regla de actuación que figure en la lista breve. Porque, para un SI artificial, y hasta donde él lo puede apreciar, ésta es la mejor regla de actuación para la situación actual.

Pero ahora déjanos ver lo que pasa en un SI artificial realmente avanzado. Somos muy conscientes, que en esto podríamos estar extrapolando, que estemos hablando de un SI que podría no existir aún. Según nuestra definición, un SI siempre actúa para alcanzar sus objetivos, lo que también vale para todo SI avanzado.

Ponemos algunas definiciones:

¿Por qué hemos elegido estas definiciones? Son definiciones precisas, basadas en conceptos definidos previamente, y parecen ser definiciones útiles. No son definiciones "verdaderas". Como con otras definiciones de este libro, no hicimos esfuerzo alguno para captar el contenido que la mayoría de las personas en el mundo le asignan a esos conceptos (el sentido de esas palabras). Esto parece ser imposible. Los conceptos son demasiado diferentes entre ellos. A lo sumo, sería posible captar los contenidos de estos conceptos para una determinada subsociedad, por ejemplo para los hindúes o las sociedades islámicas. ¿Pero qué utilidad tendría eso para una ciencia? Una ciencia debe ser universal, aplicable en todas partes.

Normalmente se supone que una acción ética es una "buena" acción. Debemos darnos cuenta que el SI artificial no puede tener ningún conocimiento de lo bueno o de lo malo, visto como algo transcendental, universal o absoluto y eterno. Para el SI un objetivo es bueno, si ayuda a alcanzar el objetivo principal. Toda acción es buena, si ayuda a que el SI pueda acercarse a su objetivo. Todo concepto, y "bueno" es un concepto, es el resultado de una experiencia, como lo hemos demostrado en capítulos anteriores. En el SI artificial es una almacenamiento eléctrico o magnético en su memoria.

Si consideramos todo esto, ¿cómo hace un SI artificial avanzado para elegir un objetivo ético y una acción ética? Para el SI no siempre es fácil darse cuenta cuáles de los subobjetivos son los que sirven más para alcanzar el objetivo principal. Las ventajas a corto plazo pueden tener desventajas a largo plazo, de manera que el SI debe ser cuidadoso en la elección de sus subobjetivos. Para considerar si una respuesta es una acción ética, el SI debería tener en cuenta, en lo posible, no solamente los resultados inmediatos, sino también las reacciones de otros SI's y de su sociedad ante sus acciones y los efectos a largo plazo que éstas generan.

Surge la pregunta: ¿Realmente existe la acción óptima?. El SI artificial tiene una información limitada sobre su entorno. No conoce todas las cosas ni todos los aspectos de las cosas. No conoce a todos los SI afectados y sus experiencias. Sus propias reglas de actuación y su conocimiento sobre qué hacer en determinada situación, son incompletos. También es limitado el tiempo que necesita para calcular la acción óptima. De manera que el SI artificial no puede encontrar una acción óptima, pero normalmente sí puede encontrar una acción adecuada, una acción ética.

Entonces, ¿cómo debería el SI artificial evaluar sus reglas de actuación y elegir una de ellas?

  1. Si se trata de un SI aislado, con un entorno desprovisto de otros SI's, tiene poca necesidad de una ciencia de la ética. La selección de subobjetivos y las respuestas correspondientes se dan en forma directa. No hay reacción alguna de otros SI's.

  2. Muchos SI's viven en un entorno que está en contacto con muchos otros SI's, que reaccionan a las acciones. Como todos los SI's reaccionan entre sí, esta reacción es una reacción compleja.

    Si la suma de estas reacciones significa para el SI más ventaja que desventaja, entonces se trata de una acción ética. La reacción es desfavorable, cuando un SI recibe más desventajas que ventajas de la acción propuesta. Pero muchas veces la reacción no se presenta en proporción a la desventaja. Puede darse el caso de que cinco SI's son afectados favorable pero levemente, mientras sólo un SI es afectado desfavorablemente pero que reacciona en forma violenta. La manera más segura para asegurarse de que una acción propuesta es ética, es arreglar las cosas de tal manera, que cada SI afectado tenga más ventaja que desventaja de la acción propuesta.
    Podemos decir: Es casi seguro que una acción es ética, si es de ventaja para el SI que la originó, y presenta más ventaja que desventaja para cada uno de todos los SI's que sabe que están afectados (si no sabe si un determinado SI está afectado o no, no puede hacer los cálculos). Si la respuesta acarrea desventaja sólo a algunos de los SI's afectados, entonces posiblemente el SI pueda cambiar la acción, como para traerles una ventaja adicional a estos SI's afectados y equilibrar de esta manera la ventaja y la desventaja (Ejemplo: el gobierno paga una indemnización a las personas cuyas tierras se inundan por la construcción de una represa hidroeléctrica).

Probemos una fórmula para calcular la ventaja y la desventaja de una respuesta:

Si el valor de E es siempre positivo, la respuesta propuesta seguramente es ética; de la otra manera podría ser no ética. A = ventaja; D = desventaja; 1, 2, 3 son los diferentes SI's. A y D se miden por la importancia de los objetivos afectados, y éstos a su vez se miden en los segundos por día que el SI está dispuesto a dedicar para alcanzar el objetivo - tal como lo hemos visto en el capítulo sobre Sistemas inteligentes. Ver: Sistemas inteligentes (Para leer de corrido, no entre aquí ahora).. Parece ser que algunos tipos de acciones tienen más chance que otros de obtener reacciones ventajosas de los SI's afectados. La experiencia humana muestra que las acciones cooperativas normalmente tienen como resultado acciones cooperativas de otros SI's; esto facilita mucho el poder alcanzar nuestros objetivos. Un ataque normalmente se contesta con un contraataque, haciendo que sea más difícil alcanzar nuestros objetivos.

 

Para leer de corrido, como un libro - continua aquí
Saltar al Contenido del libro electrónico / a La ética como ciencia / al Inicio de esta página.


Ultimo cambio: 7 Mar. 06 / Walter Fritz
Copyright © New Horizons Press