martes, 18 de marzo de 2014
FENIX pelicula espanola by JAZMIN ASPIAZU
YO ROBOT by Pablo Gudino
Robots
En este capítulo Asimov plantea la idea de que un robot
reemplace a un humano, con el rol de niñera, haciendo que el niño al ser
cuidado no se apegue sentimentalmente a la persona que esté a su cargo, y así
mismo que el robot no le pueda hacer daño, sea responsable y obedezca las
órdenes de su patrón, ya que el robot debe cumplir con las Leyes de la
Robótica.
Lamentablemente, esto no puede ser posible, ya que la niña le toma cariño al robot como si fuese una persona. El robot cumple con su trabajo, pero se crea un fuerte sentimiento de la misma forma que ocurre si la niñera fuese una persona. Por lo tanto, este reemplazo tiene, tanto una ventaja que el robot debe obedecer las Leyes de la Robótica, y como una desventaja, que es la pérdida del empleo de una persona real.
Lamentablemente, esto no puede ser posible, ya que la niña le toma cariño al robot como si fuese una persona. El robot cumple con su trabajo, pero se crea un fuerte sentimiento de la misma forma que ocurre si la niñera fuese una persona. Por lo tanto, este reemplazo tiene, tanto una ventaja que el robot debe obedecer las Leyes de la Robótica, y como una desventaja, que es la pérdida del empleo de una persona real.
CAPITULO II
En este capítulo un robot, destinado a trabajar en la
extracción de un mineral, tiene un conflicto con las Leyes de la Robótica. El
caso es que este robot era extremadamente caro, razón por la cual tenía
reforzada la Tercera Ley, la de la Auto-conservación, con el fin de llegar a
protegerse más. Y al recibir una orden de los humanos, el robot está obligado a
cumplirla siguiendo el dictado de las Leyes de la Robótica.
Sin embargo, esta orden significa un peligro para el robot, y como la Tercera Ley estaba reforzada, se establece un equilibrio entre los potenciales de las 2 Leyes. La Segunda lo obliga a avanzar, mientras que la Tercera lo obliga a retroceder. Como consecuencia el robot no sabe qué hacer, y se queda en un estado similar al de un humano ebrio.
CAPITULO III
Sin embargo, esta orden significa un peligro para el robot, y como la Tercera Ley estaba reforzada, se establece un equilibrio entre los potenciales de las 2 Leyes. La Segunda lo obliga a avanzar, mientras que la Tercera lo obliga a retroceder. Como consecuencia el robot no sabe qué hacer, y se queda en un estado similar al de un humano ebrio.
CAPITULO III
Este capítulo presenta a un robot que no obedece a los
ingenieros de la U.S Robots, y muestra a un robot que es filósofo, a través de
sus actitudes y pensamientos. Asimov muestra el carácter lógico de los robots,
ya que el robot inventa un sistema formal con el cual, partiendo del postulad
de que ningún ser puede crear un ser más perfecto que él, llega a la conclusión
de que es improbable que los humanos lo hayan creado.
Por lo tanto, este nuevo robot cuestiona su propia existencia, por lo que se puede deducir que Asimov asemeja su inteligencia artificial con la inteligencia humana, ya que los mismos filósofos se preguntan por esto. Al manifestar curiosidad por su propia existencia, el robot dice, luego de reflexionar: "Yo, por mi parte, existo porque pienso".
El robot también cuestiona el origen de los humanos, lo que se demuestra claramente cuando les dice: "¿De qué punto de luz dices que vienes?". Este cuestionamiento del origen de los humanos por parte del robot se da a lo largo del relato. El robot no cree ni lo que le cuentan los humanos sobre la Tierra, ni lo que lee en los libros, ya que él ya tiene una verdad establecida, y lo que los humanos toman como hechos, él los toma como una hipótesis.
La Verdad que sostiene este robot es que su creador es el Señor, y su teoría es que el Señor primero creó a los humanos, y luego los fue remplazando por seres perfeccionados que son los robots.
El problema que genera todo lo anteriormente expuesto es que las órdenes que le dan al robot los humanos no son obedecidas, ya que según el robot, él es superior a ellos. Se demuestra un fallo en las Tres Leyes de la Robótica que deberían cumplir todos los robots.
Finalmente, el problema se resuelve, sin la intervención de los humanos, ya que en el robot prevalece la Primera Ley, que lo obliga a proteger a los seres humanos, aunque él no lo sepa. De este modo, el robot puede cumplir su trabajo, sin importar lo que él crea, ya que éste no puede descartar la Primera ley.
Por lo tanto, este nuevo robot cuestiona su propia existencia, por lo que se puede deducir que Asimov asemeja su inteligencia artificial con la inteligencia humana, ya que los mismos filósofos se preguntan por esto. Al manifestar curiosidad por su propia existencia, el robot dice, luego de reflexionar: "Yo, por mi parte, existo porque pienso".
El robot también cuestiona el origen de los humanos, lo que se demuestra claramente cuando les dice: "¿De qué punto de luz dices que vienes?". Este cuestionamiento del origen de los humanos por parte del robot se da a lo largo del relato. El robot no cree ni lo que le cuentan los humanos sobre la Tierra, ni lo que lee en los libros, ya que él ya tiene una verdad establecida, y lo que los humanos toman como hechos, él los toma como una hipótesis.
La Verdad que sostiene este robot es que su creador es el Señor, y su teoría es que el Señor primero creó a los humanos, y luego los fue remplazando por seres perfeccionados que son los robots.
El problema que genera todo lo anteriormente expuesto es que las órdenes que le dan al robot los humanos no son obedecidas, ya que según el robot, él es superior a ellos. Se demuestra un fallo en las Tres Leyes de la Robótica que deberían cumplir todos los robots.
Finalmente, el problema se resuelve, sin la intervención de los humanos, ya que en el robot prevalece la Primera Ley, que lo obliga a proteger a los seres humanos, aunque él no lo sepa. De este modo, el robot puede cumplir su trabajo, sin importar lo que él crea, ya que éste no puede descartar la Primera ley.
CAPITULO IV
En este capítulo, los ingenieros se encuentran frente a
un robot que tiene un problema de iniciativa personal. Este robot trabaja muy
bien junto con sus subsidiarios, cuando está siendo vigilado. Pero cuando no
está siendo observado deja de trabajar. Los ingenieros deciden preguntarle al
robot qué es lo que le pasa, pero éste no sabe que responder, por lo que creen
que tiene amnesia.
Al hacerle una serie de exámenes, se dan cuenta de que el robot se encontraba en perfectas condiciones, por lo cual deciden instalar "visiplacas" para saber qué es lo que le pasa cuando deja de trabajar. Con lo que observan que éste comienza a marchar en formación militar, como si, junto con sus subsidiarios, se hubiera vuelto loco. Al acercarse uno de los ingenieros, los robots volvieron al trabajo, y el robot principal no sabe qué ocurrió.
Dave no les puede mentir si ellos le ordenan que diga la verdad; por lo tanto, no queda otra respuesta que el problema está en la iniciativa personal del robot, necesaria para actuar de manera distinta notar la ausencia de los humanos.
Tras interrogar a un subsidiario, y comparar opiniones, los ingenieros llegan a notar que lo que causa que el robot actúe de forma extraña es el peligro, perturbándolo y tensionándolo al máximo. Luego el robot tiene una responsabilidad menos y se puede controlar, acudiendo a salvar a los humanos.
Al hacerle una serie de exámenes, se dan cuenta de que el robot se encontraba en perfectas condiciones, por lo cual deciden instalar "visiplacas" para saber qué es lo que le pasa cuando deja de trabajar. Con lo que observan que éste comienza a marchar en formación militar, como si, junto con sus subsidiarios, se hubiera vuelto loco. Al acercarse uno de los ingenieros, los robots volvieron al trabajo, y el robot principal no sabe qué ocurrió.
Dave no les puede mentir si ellos le ordenan que diga la verdad; por lo tanto, no queda otra respuesta que el problema está en la iniciativa personal del robot, necesaria para actuar de manera distinta notar la ausencia de los humanos.
Tras interrogar a un subsidiario, y comparar opiniones, los ingenieros llegan a notar que lo que causa que el robot actúe de forma extraña es el peligro, perturbándolo y tensionándolo al máximo. Luego el robot tiene una responsabilidad menos y se puede controlar, acudiendo a salvar a los humanos.
CAPITULO V
En este capítulo hay un nuevo problema, que se crea a
partir de un nuevo robot que puede leer el pensamiento de las personas. Al ver
el pensamiento de los humanos, debía decirles lo que ellos querían para no
dañarlos sentimentalmente lo termina mata.
. Esto es una extensión de la Primera Ley, ya que como puede leer el pensamiento, también puede dañar a la persona psicológicamente, no sólo físicamente.
Es por eso que el robot debe mentir, haciendo un daño posterior, y muriendo luego, al volverse loco por no saber que hacer en esta situación, ya que si no le decía algo a un ser humano, dañaba a otro, y si lo decía, le dañaba el orgullo al primero. Por lo tanto, esta indecisión lo vuelve loco y pequeño.
. Esto es una extensión de la Primera Ley, ya que como puede leer el pensamiento, también puede dañar a la persona psicológicamente, no sólo físicamente.
Es por eso que el robot debe mentir, haciendo un daño posterior, y muriendo luego, al volverse loco por no saber que hacer en esta situación, ya que si no le decía algo a un ser humano, dañaba a otro, y si lo decía, le dañaba el orgullo al primero. Por lo tanto, esta indecisión lo vuelve loco y pequeño.
CAPITULO VI
El problema en este capitulo es que se perdió un robot
que tenía la primera ley modificada. Este se escondió entre otros robots de su
mismo tipo y negaba ser él, mintiendo. La primera ley de este robot modificado
sólo decía que no debe dañar a un ser humano directamente, sin molestarse si
algo le pasaba. Lo único que los hace esclavos nuestros a los robots es la
Primera Ley, de lo contrario, al darles la primer orden, nos matarían, por el
resentimiento de que alguien física y mentalmente inferior a ellos los intente
dominar.
Este robot no quería entregarse porque consideraba a los humanos inferiores a él, e injusta la Primera Ley que los protege. De esta forma, este robot podría matar a un ser humano dejando caer un peso, ya que el medio activo que ejecuta al humano sería la fuerza de gravedad, y no directamente el robot. Esto se lo permite la modificación de la Primera Ley.
Al intentar camuflarse entre otros robots, este simula responder como lo haría un robot normal.
CAPITULO VII
Este robot no quería entregarse porque consideraba a los humanos inferiores a él, e injusta la Primera Ley que los protege. De esta forma, este robot podría matar a un ser humano dejando caer un peso, ya que el medio activo que ejecuta al humano sería la fuerza de gravedad, y no directamente el robot. Esto se lo permite la modificación de la Primera Ley.
Al intentar camuflarse entre otros robots, este simula responder como lo haría un robot normal.
CAPITULO VII
Aquí se presenta un problema con una supercomputadora que
debe construir una nave para viajes interestelares. Aquí el tema es que nunca
podrá dar una solución a un problema que se le haya presentado, si esta
solución trae la muerte o daño de seres humanos.
Si este problema estuviese unido a una urgente demanda de respuesta, sería tal vez posible que la supercomputadora se encontrase ante un dilema, según el cual no podría ni contestar ni negarse a hacerlo.
Aquí se presenta un problema con una supercomputadora que debe construir una nave para viajes interestelares. Aquí el tema es que nunca podrá dar una solución a un problema que se le haya presentado, si esta solución trae la muerte o daño de seres humanos.
Si este problema estuviese unido a una urgente demanda de respuesta, sería tal vez posible que la supercomputadora se encontrase ante un dilema, según el cual no podría ni contestar ni negarse a hacerlo.
CAPITULO VIII
Si este problema estuviese unido a una urgente demanda de respuesta, sería tal vez posible que la supercomputadora se encontrase ante un dilema, según el cual no podría ni contestar ni negarse a hacerlo.
Aquí se presenta un problema con una supercomputadora que debe construir una nave para viajes interestelares. Aquí el tema es que nunca podrá dar una solución a un problema que se le haya presentado, si esta solución trae la muerte o daño de seres humanos.
Si este problema estuviese unido a una urgente demanda de respuesta, sería tal vez posible que la supercomputadora se encontrase ante un dilema, según el cual no podría ni contestar ni negarse a hacerlo.
CAPITULO VIII
Se cuestiona la humanidad de una persona, ya que no se le
ve comer, dormir, ni beber. Como es lógico pensar, esto representa un problema,
ya que esta estrictamente prohibido el empleo de robots en los mundos
habitados. Eso fue el resultado de lo que relata Susan Calvin que hace
referencia a que los robots se hicieron más humanos y comenzó la oposición de
los sindicatos obreros, que se oponían a la competencia que hacían los robots
al trabajo humano. La forma de descubrir la verdad, según ella, es analizar su
conducta, aunque no daría un resultado 100% confiable, ya que aunque esta
persona respetara todas las Leyes de la Robótica, bien podría ser un muy buen
ciudadano, un ser humano honrado y decente.
CAPITULO IX
CAPITULO IX
En este capítulo, se llega a una época en el futuro, en
la que la economía mundial es controlada por unas máquinas. Es en este episodio
en el que se demuestra al máximo la ley zero, que dice que un robot no puede
dañar ni ver dañar a la Humanidad, razón por la cual se ocupan íntegramente del
futuro de la raza humana.
Después de todo, la ley zero es el resultado de la reflexión filosófica de los robots, como si fuera una evolución en su pensamiento. De este modo, las primeras leyes enunciadas que, se suponía, protegían la vida humana, dejan de ser útiles.
Después de todo, la ley zero es el resultado de la reflexión filosófica de los robots, como si fuera una evolución en su pensamiento. De este modo, las primeras leyes enunciadas que, se suponía, protegían la vida humana, dejan de ser útiles.
Comentario:
El libro de ciencia ficción de ISAAC ASIMOV es mucho Más interesante que la película si hacemos un
examen de cada capítulo del libro podemos extraer cosas muy valiosas por
ejemplo en el primer capítulo se nos
hace reflexionar sobre el desplazamiento
del campo laboral de los humanos por
robots que funcionan las 24 horas del día, que no se enferman, que no hacen sindicatos,
que no tienen amigos , son máquinas frías
sin sentimiento que no transmiten emociones que no lloran, que no suspiran, que
no se enamoran. Si llegásemos a tal nivel de tecnología. La
reflexión sería que los docentes o
cualquier otro profesional ¿podría ser reemplazados por maquinas robóticas? ¿Sería posible esa situación? Nuestros
chicos podrían imitar gestos, movimientos, palabras que son
propias del ser humano, la interacción social, el calor humano del cual dependemos todos los seres humanos ¿podría ser reemplazado o
imitado por ROBOTS?
En lo académico
quizás funcione por que
las computadoras pueden retener mucha información e incluso pueden guardar enciclopedias en su memoria,
pero la manera de dar la materia, la paciencia el afecto y el amor que se pone
a la enseñanza ¿puede ser reemplazada?
Suscribirse a:
Entradas (Atom)