La válvula de seguridad
Sistemas inteligentes y sus sociedades Walter Fritz

La válvula de seguridad

 

Existe una creencia ampliamente difundida, de que los robots, los SI's artificiales, serán peligrosos para la humanidad. Muchos libros y películas dramatizan esto. Pero los seres humanos construyen máquinas para que les sirvan. Ninguna persona en su sano juicio construiría a sabiendas una máquina que la hiera (y la gran mayoría de las personas que han construido SI's artificiales son personas cuerdas). Las calderas a vapor son útiles, pero pueden explotar. De manera que se los construye con válvulas de seguridad. Los automóviles son muy útiles pero son también peligrosos. De manera que los equipamos con frenos, bolsas de aire, y exigimos licencias de conductor.
Lo mismo vale para los SI's artificiales. Una vez que ellos tienen una capacidad mental suficiente, pueden ser peligrosos. De manera que tenemos que agregar una "válvula de seguridad". Por ejemplo, las famosas tres leyes de la robótica del Dr. Isaac Asimov serían una válvula de seguridad tal. Esto incluye dar a un robot el carácter y las actitudes de un perro, no el carácter de un lobo. Ver "Objetivos principales" (Para leer de corrido, no entre aquí ahora)..

Seamos más específicos referente a este punto. ¿Por qué no son peligrosos para la humanidad hasta los robots extremadamente inteligentes?

 

Dar objetivos
Un robot es un sistema inteligente y, como tal, necesita objetivos. Un robot actúa seleccionando acciones aprendidas. Esta selección significa realizar una evaluación para saber qué acción (qué regla de actuación) realizar. Esta evaluación necesita un "vara de medición", algo con que se puede comparar la acción propuesta, para ver si es una acción buena. Este "vara de medición" es el objetivo del robot. Este objetivo es una subrutina del programa de computación, que le da evaluaciones más altas a una regla de actuación si una persona aprueba esta acción y baja la evaluación cuando una persona la desaprueba. De esta manera el robot aprende cuáles son las acciones "buenas" y "malas". Queremos que los robots nos ayuden, que hagan que nuestras vidas sean más fáciles. Un buen objetivo es el de "complacer a los humanos".

También los animales tienen objetivos. Es el instinto de supervivencia. Ellos tampoco pueden cambiar este objetivo. Naturalmente, tanto el robot como el animal, pueden elegir muchos niveles de subobjetivos, objetivos inmediatos que sirven para alcanzar su objetivo principal.

Es importante distinguir entre objetivo e inteligencia. Una buena inteligencia es el resultado de procesos mentales rápidos y acertados, que resultarán en alcanzar un objetivo rápidamente y sin esfuerzo. Los robots (en el futuro) tendrán procesos mentales que son mucho más rápidos y mucho más acertados que los de los seres humanos. Alcanzarán sus objetivos más rápidamente y mejor. Pero esto no cambia el objetivo en sí.

 

Cambio de objetivos por seres humanos
Un objetivo es parte del programa de computación, el cual recibe la información de los sentidos, elige una acción y la realiza. No es algo que el robot puede cambiar. Si deseamos cambiar un programa como ése, debemos apagar el robot, hacer los cambios en el programa fuente, compilar el programa y poner el programa nuevo en la computadora. Un robot no puede hacer eso mientras corre el programa. Más aún, una vez que le damos el objetivo "agradar a los seres humanos", y que lo entrenamos acordemente, cambiar el programa no es algo que el robot puede querer hacer.

Pero, posiblemente no todos los que construyen robots y sistemas artificiales inteligentes inmóviles, sean personas cuerdas.
Por supuesto que es posible darle a un robot el objetivo de su propia supervivencia. Darle a un robot sumamente inteligente tal objetivo sería una buena manera de eliminar la especie humana. Este robot construirá muchos otros, y ellos querrían todas las fuentes de energía y de materia disponibles para ellos mismos; se paralizaría el uso humano de toda energía y materia, no podríamos seguir viviendo. De manera que, si se construyera un robot de estas características, a la brevedad se deberán enviar a otros robots para destruirlo.

 

Cambio de objetivos por robots
Podemos decir que posiblemente un robot pueda modificar los programas de otros robots. Si es solamente un robot moderadamente inteligente, no podrá modificar el programa de otro robot y hacer que funcione.
¿Pero qué pasaría si un robot sumamente inteligente notara que se destruyen sin necesidad muchos robots, porque personas les dan órdenes que son peligrosas para el robot mismo? Posiblemente un robot como ése podría desear reforzar la parte de la autoprotección del objetivo principal (esto sería como reforzar la tercera ley de robótica de Asimov a expensas de la primera y segunda ley). Pero no la reforzaría más allá del punto donde la supervivencia de los robots viene primero y el complacer a los seres humanos viene en segundo lugar. Aún si el robot es tan inteligente como para darse cuenta de la destrucción innecesaria de robots, no puede actuar en contra de su propio objetivo principal. En otras palabras, aunque sería lo suficientemente inteligente como para modificar el programa de computación de otro robot, poniendo primero la supervivencia, no podría desear de hacer esto.

Casi todos estamos de acuerdo que no deberíamos construir robots para reemplazarnos. Deberíamos construirlos para que nos ayuden. Como el robot tiene el objetivo de complacernos, no puede desear de modificar este programa. Cuando se construye un robot con un objetivo "equivocado" debe ser destruido inmediatamente.
De esta manera, hasta los robots sumamente inteligentes serán nuestros ayudantes, no nuestros patrones, y no reemplazarán a la especie humana.

 

Si vivimos solamente jugando y sin "stress"
¿Podría ser, que los robots sean peligrosos de una forma diferente? ¿Que un SI, que pueda pensar en forma más precisa y rápida que un ser humano, le quitara toda iniciativa a los humanos y los condenará a la inactividad? La historia nos ha demostrado que justamente es correcto lo contrario. En la antigua Grecia, cuando los esclavos realizaban casi todo el trabajo, florecieron las actividades artísticas y filosóficas y los deportes. Construyeron hermosas estatuas de mármol, escribieron tanto obras teatrales cómicas como trágicas y crearon las más variadas corrientes filosóficas. Sobresalieron en deportes (allí comenzaron los Juegos Olímpicos). Ciertamente, también existía la otra parte, las personas que vivían solamente del placer, por ejemplo, se inventaron las orgías. Me parece que quedan suficientes actividades interesantes, aún si hacemos solamente lo que nos gusta hacer y los robots se hacen cargo de todas nuestras necesidades materiales y de todas las actividades que no queremos realizar.

 

Para leer de corrido, como un libro - continuaaquí
Saltar al contenido del libro electrónico / Consecuencias / al inicio de esta página.


Ultimo cambio: 11 Mayo 2013 / Walter Fritz
Copyright © New Horizons Press