martes, 18 de marzo de 2014

FENIX pelicula espanola by JAZMIN ASPIAZU

Meditar acerca de la cybercultura nos lleva a constatar es cierto Tics hecho relevante pero que pasa con el bullying informático cuando no solo afecta a un nino o muestra de la población sino a un pueblo entero y su sentimiento nacional!!!!.. esto paso en un poblado cerca de Barcelona o porque no nación catalana..te invito a que veas nuestro video y opines..

YO ROBOT by Pablo Gudino

Robots

CAPITULO I

En este capítulo Asimov plantea la idea de que un robot reemplace a un humano, con el rol de niñera, haciendo que el niño al ser cuidado no se apegue sentimentalmente a la persona que esté a su cargo, y así mismo que el robot no le pueda hacer daño, sea responsable y obedezca las órdenes de su patrón, ya que el robot debe cumplir con las Leyes de la Robótica.
Lamentablemente, esto no puede ser posible, ya que la niña le toma cariño al robot como si fuese una persona. El robot cumple con su trabajo, pero se crea un fuerte sentimiento de la misma forma que ocurre si la niñera fuese una persona. Por lo tanto, este reemplazo tiene, tanto una ventaja que el robot debe obedecer las Leyes de la Robótica, y como una desventaja, que es la pérdida del empleo de una persona real.
CAPITULO II
En este capítulo un robot, destinado a trabajar en la extracción de un mineral, tiene un conflicto con las Leyes de la Robótica. El caso es que este robot era extremadamente caro, razón por la cual tenía reforzada la Tercera Ley, la de la Auto-conservación, con el fin de llegar a protegerse más. Y al recibir una orden de los humanos, el robot está obligado a cumplirla siguiendo el dictado de las Leyes de la Robótica.
Sin embargo, esta orden significa un peligro para el robot, y como la Tercera Ley estaba reforzada, se establece un equilibrio entre los potenciales de las 2 Leyes. La Segunda lo obliga a avanzar, mientras que la Tercera lo obliga a retroceder. Como consecuencia el robot no sabe qué hacer, y se queda en un estado similar al de un humano ebrio.
CAPITULO III
Este capítulo presenta a un robot que no obedece a los ingenieros de la U.S Robots, y muestra a un robot que es filósofo, a través de sus actitudes y pensamientos. Asimov muestra el carácter lógico de los robots, ya que el robot inventa un sistema formal con el cual, partiendo del postulad de que ningún ser puede crear un ser más perfecto que él, llega a la conclusión de que es improbable que los humanos lo hayan creado.
Por lo tanto, este nuevo robot cuestiona su propia existencia, por lo que se puede deducir que Asimov asemeja su inteligencia artificial con la inteligencia humana, ya que los mismos filósofos se preguntan por esto. Al manifestar curiosidad por su propia existencia, el robot dice, luego de reflexionar: "Yo, por mi parte, existo porque pienso".
El robot también cuestiona el origen de los humanos, lo que se demuestra claramente cuando les dice: "¿De qué punto de luz dices que vienes?". Este cuestionamiento del origen de los humanos por parte del robot se da a lo largo del relato. El robot no cree ni lo que le cuentan los humanos sobre la Tierra, ni lo que lee en los libros, ya que él ya tiene una verdad establecida, y lo que los humanos toman como hechos, él los toma como una hipótesis.
La Verdad que sostiene este robot es que su creador es el Señor, y su teoría es que el Señor primero creó a los humanos, y luego los fue remplazando por seres perfeccionados que son los robots.
El problema que genera todo lo anteriormente expuesto es que las órdenes que le dan al robot los humanos no son obedecidas, ya que según el robot, él es superior a ellos. Se demuestra un fallo en las Tres Leyes de la Robótica que deberían cumplir todos los robots.
Finalmente, el problema se resuelve, sin la intervención de los humanos, ya que en el robot prevalece la Primera Ley, que lo obliga a proteger a los seres humanos, aunque él no lo sepa. De este modo, el robot puede cumplir su trabajo, sin importar lo que él crea, ya que éste no puede descartar la Primera ley.
CAPITULO IV
En este capítulo, los ingenieros se encuentran frente a un robot que tiene un problema de iniciativa personal. Este robot trabaja muy bien junto con sus subsidiarios, cuando está siendo vigilado. Pero cuando no está siendo observado deja de trabajar. Los ingenieros deciden preguntarle al robot qué es lo que le pasa, pero éste no sabe que responder, por lo que creen que tiene amnesia.
Al hacerle una serie de exámenes, se dan cuenta de que el robot se encontraba en perfectas condiciones, por lo cual deciden instalar "visiplacas" para saber qué es lo que le pasa cuando deja de trabajar. Con lo que observan que éste comienza a marchar en formación militar, como si, junto con sus subsidiarios, se hubiera vuelto loco. Al acercarse uno de los ingenieros, los robots volvieron al trabajo, y el robot principal no sabe qué ocurrió.
Dave no les puede mentir si ellos le ordenan que diga la verdad; por lo tanto, no queda otra respuesta que el problema está en la iniciativa personal del robot, necesaria para actuar de manera distinta notar la ausencia de los humanos.
Tras interrogar a un subsidiario, y comparar opiniones, los ingenieros llegan a notar que lo que causa que el robot actúe de forma extraña es el peligro, perturbándolo y tensionándolo al máximo. Luego el robot tiene una responsabilidad menos y se puede controlar, acudiendo a salvar a los humanos.
CAPITULO V
En este capítulo hay un nuevo problema, que se crea a partir de un nuevo robot que puede leer el pensamiento de las personas. Al ver el pensamiento de los humanos, debía decirles lo que ellos querían para no dañarlos sentimentalmente lo termina mata.
. Esto es una extensión de la Primera Ley, ya que como puede leer el pensamiento, también puede dañar a la persona psicológicamente, no sólo físicamente.
Es por eso que el robot debe mentir, haciendo un daño posterior, y muriendo luego, al volverse loco por no saber que hacer en esta situación, ya que si no le decía algo a un ser humano, dañaba a otro, y si lo decía, le dañaba el orgullo al primero. Por lo tanto, esta indecisión lo vuelve loco y pequeño.
CAPITULO VI
El problema en este capitulo es que se perdió un robot que tenía la primera ley modificada. Este se escondió entre otros robots de su mismo tipo y negaba ser él, mintiendo. La primera ley de este robot modificado sólo decía que no debe dañar a un ser humano directamente, sin molestarse si algo le pasaba. Lo único que los hace esclavos nuestros a los robots es la Primera Ley, de lo contrario, al darles la primer orden, nos matarían, por el resentimiento de que alguien física y mentalmente inferior a ellos los intente dominar.
Este robot no quería entregarse porque consideraba a los humanos inferiores a él, e injusta la Primera Ley que los protege. De esta forma, este robot podría matar a un ser humano dejando caer un peso, ya que el medio activo que ejecuta al humano sería la fuerza de gravedad, y no directamente el robot. Esto se lo permite la modificación de la Primera Ley.
Al intentar camuflarse entre otros robots, este simula responder como lo haría un robot normal.
CAPITULO VII
Aquí se presenta un problema con una supercomputadora que debe construir una nave para viajes interestelares. Aquí el tema es que nunca podrá dar una solución a un problema que se le haya presentado, si esta solución trae la muerte o daño de seres humanos.
Si este problema estuviese unido a una urgente demanda de respuesta, sería tal vez posible que la supercomputadora se encontrase ante un dilema, según el cual no podría ni contestar ni negarse a hacerlo.
Aquí se presenta un problema con una supercomputadora que debe construir una nave para viajes interestelares. Aquí el tema es que nunca podrá dar una solución a un problema que se le haya presentado, si esta solución trae la muerte o daño de seres humanos.
Si este problema estuviese unido a una urgente demanda de respuesta, sería tal vez posible que la supercomputadora se encontrase ante un dilema, según el cual no podría ni contestar ni negarse a hacerlo.
CAPITULO VIII
Se cuestiona la humanidad de una persona, ya que no se le ve comer, dormir, ni beber. Como es lógico pensar, esto representa un problema, ya que esta estrictamente prohibido el empleo de robots en los mundos habitados. Eso fue el resultado de lo que relata Susan Calvin que hace referencia a que los robots se hicieron más humanos y comenzó la oposición de los sindicatos obreros, que se oponían a la competencia que hacían los robots al trabajo humano. La forma de descubrir la verdad, según ella, es analizar su conducta, aunque no daría un resultado 100% confiable, ya que aunque esta persona respetara todas las Leyes de la Robótica, bien podría ser un muy buen ciudadano, un ser humano honrado y decente.
CAPITULO IX
En este capítulo, se llega a una época en el futuro, en la que la economía mundial es controlada por unas máquinas. Es en este episodio en el que se demuestra al máximo la ley zero, que dice que un robot no puede dañar ni ver dañar a la Humanidad, razón por la cual se ocupan íntegramente del futuro de la raza humana.
Después de todo, la ley zero es el resultado de la reflexión filosófica de los robots, como si fuera una evolución en su pensamiento. De este modo, las primeras leyes enunciadas que, se suponía, protegían la vida humana, dejan de ser útiles.

Comentario:
El libro de ciencia ficción de ISAAC  ASIMOV es mucho Más  interesante que la película si hacemos un examen de cada capítulo del libro podemos extraer cosas muy valiosas por ejemplo en el  primer capítulo  se  nos hace reflexionar sobre  el desplazamiento del campo laboral  de los humanos por robots que funcionan las 24 horas del día, que no se enferman, que no hacen sindicatos, que no tienen amigos ,  son máquinas frías sin sentimiento que no transmiten emociones que no lloran, que no suspiran, que no se enamoran. Si llegásemos a tal nivel de tecnología.   La reflexión  sería que los docentes o cualquier otro profesional  ¿podría  ser reemplazados por maquinas robóticas?  ¿Sería posible esa situación? Nuestros chicos    podrían  imitar gestos, movimientos, palabras que son propias del ser humano, la interacción social, el calor humano   del cual  dependemos todos los  seres humanos ¿podría ser reemplazado o imitado  por ROBOTS?
En lo académico  quizás  funcione  por que  las computadoras pueden retener mucha información e incluso  pueden guardar enciclopedias en su memoria, pero la manera de dar la materia, la paciencia el afecto y el amor que se pone a la enseñanza ¿puede ser reemplazada?
Espero sus comentarios compañeros: