Ir al contenido principal

Final fantasy I.A. 🤖

En la primera entrada de Inteligencia Artificial, os contaba que todos mis conocimientos sobre esta materia procedían de lo que había visto en las películas. Por si no sabéis de qué os hablo os lo cuento aquí.
    Desde que escribí esa entrada han pasado 4 semanas y no penséis que ya soy una experta, nada más lejos de la realidad. Sigo sin saber gran cosa pero lo cierto es que por lo menos ya tengo una idea general de qué es, qué pretende lograr y también de alguno de los problemas que puede tener la I.A.
Hoy os voy a hablar de esto último: de los problemas. Mi intención no es hablar solamente de los relacionados con aspectos técnicos, que seguro que muchos de ellos escapan a mi comprensión, sino también hablar de lo que para los humanos supone disponer de un modelo de procesamiento que intenta alcanzar nuestro modo de pensamiento propio.


    El primer problema que puede tener la I.A. es la dificultad para definir la inteligencia. Este aspecto hace difícil definir qué podemos considerar inteligencia artificial. No hay una definición clara y unívoca de inteligencia así que, desde el momento en que no somos capaces de establecer claramente que consideramos inteligencia en un humano, difícilmente podremos crear de forma artificial un funcionamiento equivalente. Las redes neuronales pueden funcionar bien en ciertos procesos pero, distan mucho todavía de ser una estructura que simule la estructura de un cerebro humano.
    Los humanos manejamos una cantidad muy amplia de símbolos. A modo de ejemplo podemos pensar en la comunicación no verbal entre nosotros. Esta comunicación se realiza teniendo en cuenta muchísimos factores que dependen de nuestro aprendizaje y de la capacidad de interpretar microgestos. No es algo que se aprenda de forma estándar y que sea replicable fácilmente. Se necesita un contexto que en ocasiones viene proporcionado por el conocimiento del otro sujeto. La I.A. no puede manipular los símbolos como los humanos. De hecho sentir o emocionarse son comportamientos ineficientes para los humanos ya que, en ocasiones, nos hacen abordar los problemas desde una perspectiva equivocada o nos ofrecen una solución errónea. Como ya os contaba en la primera entrada de esta materia: yo no quiero una máquina que me imite, quiero una que me mejore.  
    Otro aspecto a reseñar es la capacidad de procesamiento o ‘ley de Moore’. Esta ley establece que la capacidad de procesamiento se duplica cada dos años. Sin embargo esto no significa que podamos mejorar a la vez los algoritmos de la I.A. Con más procesamiento la I.A. puede mejorar en velocidad o en la cantidad de información que puede manejar pero en ningún caso el algoritmo será mejor. Ya que, esto no depende exclusivamente del procesamiento sino de la complejidad del algoritmo.
    En el caso de la inteligencia artificial fuerte se busca que tenga rasgos de conciencia, sensibilidad, sabiduría y autoconciencia.  En este caso su consecución no depende de la capacidad de procesamiento. Dependerá de la capacidad de comprensión que tengamos sobre cómo ocurren estos procesos. Alcanzar este objetivo depende de la posibilidad de crear algoritmos que puedan replicar nuestras capacidades cognitivas. Al igual que ocurre con la inteligencia no hemos definido claramente en qué consisten.
    La I.A. puede realizar un mal aprendizaje. Están ideadas para que aprendan por sí mismas pero no tenemos claro cómo lo hacen. Así que, después de aprender ciertas soluciones que implementa, puede que llevadas a otros contextos no sean válidas. Los humanos creamos estrategias de solución de problemas que son extrapolables a diferentes contextos. Esto nos facilita abordar multitud de problemas. Sin embargo en el caso de la I.A., el aprendizaje a través de un algoritmo, puede crear soluciones válidas pero que en un entorno diferente no tengan sentido.
    La I.A. no tiene capacidad de distinguir entre lo simulado y lo real. En el proceso de tratar los datos a través de un algoritmo, no será capaz de distinguir si el problema planteado procede de información real o simulada. Eso significa que una solución admisible o correcta en un contexto de simulación puede no ser válida en la realidad.  
    Los problemas de la I.A. no solo aparecen en los aspectos técnicos. Hay implicaciones más allá que son las que nos suelen provocar miedo. Una de ellas es la ‘singularidad tecnológica’, es decir el hipotético caso en el que un sistema informático fuera capaz de mejorarse a si mismo y de superar a los humanos. Todos hemos visto alguna película en la que los robots o una I.A tomaba conciencia de sí misma y el siguiente paso era hacerse con el dominio del mundo. Si suponemos que pudiéramos crear una simulación perfecta del pensamiento humano podría ocurrir, ¿no?. Claro que, en el momento que adquiera conciencia de sí misma y esté dotada de sentimientos humanos, ¿siempre será mala?. Suponer que será así implica suponer que la inteligencia humana está siempre definida por el mal y no por la colaboración o la protección de los otros. Sería suponer que carecemos de empatía, y si creemos que al generar una inteligencia artificial igual a la humana se va a encaminar hacia el lado oscuro, ¿no sería suponer que la conciencia humana es mala? ¿Todos nacemos con una inteligencia encaminada a la destrucción de lo que nos rodea y de los otros?.
    Para evitar que esta situación se pudiera producir podemos establecer unas leyes que limiten lo que una I.A. puede hacer, en este caso estarían enfocadas a los robots con posibilidad de tener conciencia. Sin embargo creo que las podemos considerar válidas en el caso de la I.A. De hecho algunas de ellas están enunciadas desde hace mucho tiempo:
- Un robot no puede hacer daño a un humano, o por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, salvo que entren en conflicto con la primera ley.
- Un robot debe proteger su propia existencia salvo que esto entre en conflicto con las dos leyes anteriores.
Isaac Asimov
- Un robot debe establecer siempre su identidad como robot.
Lyuba Dilov
- Un robot debe saber que es un robot.
Nikola Kesarovski
    ¿Qué pensáis de estas leyes de la robótica? ¿Son suficientes?
    Somos humanos así que en ocasiones nos dejamos llevar por el pánico. Seguramente debido al desconocimiento y porque, en ocasiones, las máquinas nos ofrecen respuestas que analizadas desde nuestro contexto, nos pueden provocar miedo. Por ejemplo en 2014, algunos internautas descubrieron que si se le preguntaba a Siri: “¿Qué día será el 27 de julio de 2014?, su respuesta era: “La apertura de las puertas del infierno”. ¿Os imagináis el susto?, al final os cuento la explicación y os recomiendo un libro.
    ¿Destrucción de humanos? Imaginad que indicamos a un dron, que tiene I.A., que mantenga alejados a animales intrusos de nuestra piscina. Le damos la pauta de reconocimiento de que tiene que darle una descarga eléctrica a cualquier cosa en la que detecte calor corporal y que tenga cuatro patas. Seguramente lo primero que hará sera darle una descarga al perro y la siguiente al bebé de los vecinos que gatea. Supongo que en ese momento tendremos que ayudar al sistema a reconducir al algoritmo para que aprenda. Podría pasar, ¿no?. Esto significa que debemos ser cuidadosos con lo que pretendemos crear con la I.A. , pero esto no depende de ella misma, depende de lo que nosotros pretendamos así que, el problema no es suyo es nuestro.
     Tengo la impresión de que siempre vemos lo malo. Sin embargo, contar con una inteligencia artificial nos puede ayudar a realizar trabajos desagradables, laboriosos o problemáticos. Además no enferman y no necesitan descanso. Aunque eso significa que nos podemos quedar sin ciertos trabajos. Pero en una sociedad occidental envejecida, ¿no creéis que nos resultará muy útil para el cuidado de ancianos o para la prevención y el diagnóstico de enfermedades?. ¿Y para operaciones que exigen precisión milimétrica? ¿O en el acompañamiento o en la educación?. Creo que puede aportarnos muchísimas cosas buenas e interesantes. El único ámbito del que mantendría alejada a la I.A. es de cuestiones militares. En este caso sí me parece peligroso, especialmente en malas manos.
    ¿Hay que poner límites éticos a la programación de I.A.?  Tomemos como ejemplo los coches autónomos. Parece lógico suponer que en el caso de choque inminente con un peatón estos den prioridad a salvar la vida del peatón ya que en el interior del coche existen medidas de seguridad para protegernos. Si tus hijas van dentro del coche: ¿irías en un coche que antepone la seguridad de los de fuera a los de dentro?. Probablemente sea en este aspecto en el que costará que se pueda establecer una vía clara de resolución. Tratamos con aspectos morales y éticos. En este caso no se trata de una solución objetiva. A mí me parece muy complejo diseñar modelos que resuelvan estos problemas de forma satisfactoria. Si queréis experimentar hay una herramienta diseñada por el MIT, llamada MORAL MACHINE.
    En cualquiera de los casos lo verdaderamente interesante del asunto es hasta dónde seremos capaces de llegar para crear I.A. similar a la humana. Al fin y al cabo el desarrollo de estas herramientas está en manos humanos y son los creadores de los algoritmos los que tienen que tener en cuenta los criterios éticos a la hora de desarrollarlos ya que, la máquina aprenderá lo que le dejemos aprender.
    Creo que no somos capaces de comprender en toda su magnitud y su complejidad el procesamiento mental humano. No podemos establecer leyes de comportamiento o vaticinar con certeza la solución a un problema. Así que es complicado que lo que la evolución ha creado a lo largo del tiempo lo pueda hacer una creación humana como es la I.A. en poco tiempo. En cualquier caso si somos capaces de emular una mente humana habríamos conseguido otra mente humana, muy buena para unas cosas pero ineficaz para otras. Sería exactamente igual que nosotros. Por lo tanto estaríamos en la misma situación que ahora. Sólo habríamos conseguido tener más mentes. Creo que llegar a este punto frenaría el avance de la I.A. por sí mismo. Habríamos alcanzado el límite de desarrollo al crear una mente artificial humana y con ello no habríamos logrado mejorar el pensamiento o el procesamiento humano.
Os dejo una pregunta para pensar un rato…si tuvierais a vuestro alcance la tecnología para crear cualquier tipo de I.A. ¿cuál sería vuestra creación?.
  
Recomendación:
La respuesta a pregunta de ¿qué día sera el 27 de julio de 2014?, la respuesta de Siri era: “La apertura de las puertas del Infierno”. Esta respuesta que podría provocar pánico en mucha gente se debe a que se trataba del fin del ramadán y parece ser que eso es lo que anuncia el Corán. Esta y otras cosas curiosas las podéis encontrar en el libro ‘ 14 maneras de destruir la humanidad’ de Daniel Arbós y Márius Belles Ed. Next Door. 

Referencias:
Apuntes de Humberto Bustince

Moral machine

Comentarios

Lo más visto

Algo muy pequeño escondido al fondo

Lo que más ha gustado

Algo muy pequeño escondido al fondo

—¡Un sobre, un sobre! — grité cuando lo vi.      En alguna ocasión os he contado que, desde muy pequeña, quienes bien me quieren NO me han hecho llorar, al contrario, me han hecho disfrutar y han alentado mi curiosidad con regalos que me han permitido entender algunas de las maravillas que nos rodean…esqueletos, juegos de química, microscopios, muchísimos libros y algún que otro sobre.      El 6 de enero de 2019 me encontré con uno de estos sobres y dentro: un viaje a Ginebra para visitar el CERN . ¡Iba a ir al lugar donde cogen partículas, les dan una velocidad propia de Star Wars y las hacen chocar!      Os podéis imaginar la ilusión que me hizo ir donde se busca lo elemental, y cuando digo lo elemental, quiero decir aquello de lo que está constituido todo, y que ningún ojo puede ver, lo más pequeño de lo pequeño.      Tras los besos, los abrazos, las gracias y algún que otro grito de entusiasmo, la cabeza me iba a mil y me a...

Y….¿por qué?

Pues por tres razones simples: Star Wars, la ciencia y el mal. Está muy claro, ¿no?. No, seguramente  no, así que supongo que a los que estéis aquí os parecerá bien que me explique un poco más.     Star Wars, fue mi primer contacto con el espacio, las naves, Darth Vader, Leia y R2D2. Cada uno me aportó una cosa distinta. Salí del cine feliz. Tenía 4 años y desde entonces me han acompañado la fuerza y el lado oscuro de la fuerza. Sí, el lado oscuro también. No hay luz sin oscuridad.      La ciencia llegó más o menos por la misma época. Mi abuelo había sido marino y había recorrido medio mundo. Le encantaba la física, la astronomía, y los barcos. Lo primero que me enseñó fue cómo rotaba la Tierra alrededor del Sol. Y siempre me dejaba hacer experimentos, que normalmente ensuciaban, explotaban o quemaban. Nos divertíamos muchísimo.      Y esto enlaza con el mal, porque la verdad es que hacer explotar cosas creo que en todos provoca algún tip...

May the ´Darth´ side of the Science be with you.