I, Robot, Asimov (2)

Entonces, hasta ahora...
- Susan Calvin sí tiene reacciones humanas. 
- Para saber qué pasa con un robot y cómo solucionarlo hay que conocer las leyes de la robótica... y mucha lógica formal. 
- Los humanos ya no saben muy bien cómo funcionan los cerebros positrónicos. 
- La programación de los robots les empieza a dar unas pautas de conducta que los asemejan cada vez más a los humanos. ¿tienen consciencia? ¿sentimientos? ¿importa si los sentimientos son producto de los nuevos paths que se trazan en los cerebros positrónicos si el resultado los pone en el mismo lugar que está una persona? 
- Si no existiera la primera ley, los robots destruirían a los humanos porque se sienten superiores en varios aspectos. 
- El Complejo de Frankenstein es el principal motor de la primera ley como requisito principal para que un robot exista. 
- Los robots amenazan los puestos de trabajo de los seres humanos... y el lugar del ser humano como individuo que crea, que aprende, que altera la naturaleza. 

Sigo con los cuentos que faltaban... 

Little Lost Robot 

Segunda ley (la de obediencia): ¿qué pasaría si a un robot molesto le dijeran "andate, que no te vea más" (go lose yourself)? y si, encima, ese robot tiene un poquito debilitada la primera ley y tiene que cumplir la primera parte (no lastimar a un ser humano) pero no la segunda (no permitir, por omisión o inacción, que un ser humano se lastime)? Bueno, necesitaban eso para que los robots no anduvieran frenando a los que arreglaban cosas en una estación espacial.
Pero el problema, además del obvio peligro (el robot sin ese cntrol, el peligro que correría US Robots si se enterara la gente) es que no le habían dicho nada a Calvin, que explica los peligros de este cambio.
Y el otro problema es que van a tener que encontrar al robot entre sesenta y cuatro robots porque, como lo construyeron fuera del marco legal, no tiene ni número de serie reconocible.
El robot: NS-2 (Nestor). 

Escape!

Consolidated,la competencia, le lleva a US Robots los planos e información para dar el salto interespacial. La única manera de construir la nave que pueda viajar en el hiperespacio es por medio de una supercomputadora. La de ellos, se había roto en el proceso.
El pago: mucha plata si les dan la nave. Menos plata si les dicen cuál es el problema.
Y como Calvin piensa que el problema fue que, seguramente, en algún punto, el viaje en el hiperespacio incluía infringir la ley número uno, le dan para adelante, pensando que, aunque sea, van a cobrar algunos dólares.
Al Cerebro (The Brain), Susan Calvin le da instrucciones claras: si encuentra algo que indique que puede morirseo lastimarse un ser humano, tiene que seguir adelante.
La sorpresa: El Cerebro construye la nave. Pero... empieza a portarse raro, como un nene, enloquece un poquito y manda a... sí, a Donovan y a Powell (andaban por ahí inspeccionando la nave) al hiperespacio. La nave la maneja la supercomputadora que, definitivamente, terminó el proceso pese a que involucraba una especie de muerte temporal...   

Evidence 

Stephen Byerley, que había tenido poco tiempo antes un accidente de autos y es el fiscal más exitoso se postula para la alcaldía de la supuesta Chicago del futuro.
Pero resulta que Stephen no sólo no come, sino que parece respetar a rajatabla la ley y a los seres humanos: está en contra de la pena de muerte (de hecho, jamás buscó esa condena en un juicio), suele ser muy justo en sus decisiones y... nunca lo vieron comer en público.
Así que Quinn, el oponente, empieza a hacer una campaña en so contra y a decir que es un robot.
El problema: US Robots no tendría permitido construir robots que parezcan realmente seres humanos y son los únicos que, de probarse la acusación, podrían haber construído el cerebro positrónico de Stephen.
La evidencia: Quinn se basa en que no hay evidencia para refutarlo ni comprobarlo para decir que es cierto (funciona con el electorado). Calvin, cuando se da cuenta, no lo hace público: para ella, los robots serían más justos que cualquiera y espera que llegue a ser coordinador del mundo (el mundo quedó un poco más unido después de la Segunda guerra).
Lo irónico: como deja en claro Susan Calvin cuando habla con Quinn, de ser un robot, Byerley tiene la misma altura moral y humanidad del mejor de los seres humanos.
La otra ironía: Stephen logra parar los chismes cuando parece romper la primera ley y golpear algo que parece ser otro ser humano. Lo que "desmuestra" (para los votantes) que es humano es la violencia injustificada.

The Evitable Conflict 



Y sí, Stephen llegó a coordinador y ya va por el segundo mandato.
De a poco, las máquinas fueron ocupando lugares hasta que ya gobiernan el mundo. Sin errores, sin intereses personales: sólo con las leyes de la robótica.
Se acaban el hambre, las desigualdades sociales...
Pero, de golpe, hay un error y a quién llama Stephen ahora? A Calvin, claro. Porque tiene que saber qué pasa con la Máquina.
La Máquina no puede, según Calvin, cometer errores. Pero la producción está bajando y algunos humanos se van quedando sin trabajo.
¿Pueden ser los de la Sociedad por la Humanidad? (que se oponían desde hacía ratos a las máquinas, que fueron reemplazando al ser humano) No, porque, si le dieran información falsa, la Máquina la detectaría.
Las máquinas no sólo controlan la economía: ya aprendieron acerca de conflictos y buscan evitarlos. La primera ley ahora no es sobre el ser humano, sino sobre la humanidad.

..................................................................................

Y todo esto es lo que le cuenta Calvin, la mujer que vio la evolución de los robots, a un periodista. Justo antes de morir.








Comentarios

Publicar un comentario

Entradas populares de este blog

Cuentos fantásticos rusos del siglo XIX

Chicos que vuelven, Mariana Enríquez

Reseñas pendientes