Ir al contenido principal

Final fantasy I.A. 🤖

En la primera entrada de Inteligencia Artificial, os contaba que todos mis conocimientos sobre esta materia procedían de lo que había visto en las películas. Por si no sabéis de qué os hablo os lo cuento aquí.
    Desde que escribí esa entrada han pasado 4 semanas y no penséis que ya soy una experta, nada más lejos de la realidad. Sigo sin saber gran cosa pero lo cierto es que por lo menos ya tengo una idea general de qué es, qué pretende lograr y también de alguno de los problemas que puede tener la I.A.
Hoy os voy a hablar de esto último: de los problemas. Mi intención no es hablar solamente de los relacionados con aspectos técnicos, que seguro que muchos de ellos escapan a mi comprensión, sino también hablar de lo que para los humanos supone disponer de un modelo de procesamiento que intenta alcanzar nuestro modo de pensamiento propio.


    El primer problema que puede tener la I.A. es la dificultad para definir la inteligencia. Este aspecto hace difícil definir qué podemos considerar inteligencia artificial. No hay una definición clara y unívoca de inteligencia así que, desde el momento en que no somos capaces de establecer claramente que consideramos inteligencia en un humano, difícilmente podremos crear de forma artificial un funcionamiento equivalente. Las redes neuronales pueden funcionar bien en ciertos procesos pero, distan mucho todavía de ser una estructura que simule la estructura de un cerebro humano.
    Los humanos manejamos una cantidad muy amplia de símbolos. A modo de ejemplo podemos pensar en la comunicación no verbal entre nosotros. Esta comunicación se realiza teniendo en cuenta muchísimos factores que dependen de nuestro aprendizaje y de la capacidad de interpretar microgestos. No es algo que se aprenda de forma estándar y que sea replicable fácilmente. Se necesita un contexto que en ocasiones viene proporcionado por el conocimiento del otro sujeto. La I.A. no puede manipular los símbolos como los humanos. De hecho sentir o emocionarse son comportamientos ineficientes para los humanos ya que, en ocasiones, nos hacen abordar los problemas desde una perspectiva equivocada o nos ofrecen una solución errónea. Como ya os contaba en la primera entrada de esta materia: yo no quiero una máquina que me imite, quiero una que me mejore.  
    Otro aspecto a reseñar es la capacidad de procesamiento o ‘ley de Moore’. Esta ley establece que la capacidad de procesamiento se duplica cada dos años. Sin embargo esto no significa que podamos mejorar a la vez los algoritmos de la I.A. Con más procesamiento la I.A. puede mejorar en velocidad o en la cantidad de información que puede manejar pero en ningún caso el algoritmo será mejor. Ya que, esto no depende exclusivamente del procesamiento sino de la complejidad del algoritmo.
    En el caso de la inteligencia artificial fuerte se busca que tenga rasgos de conciencia, sensibilidad, sabiduría y autoconciencia.  En este caso su consecución no depende de la capacidad de procesamiento. Dependerá de la capacidad de comprensión que tengamos sobre cómo ocurren estos procesos. Alcanzar este objetivo depende de la posibilidad de crear algoritmos que puedan replicar nuestras capacidades cognitivas. Al igual que ocurre con la inteligencia no hemos definido claramente en qué consisten.
    La I.A. puede realizar un mal aprendizaje. Están ideadas para que aprendan por sí mismas pero no tenemos claro cómo lo hacen. Así que, después de aprender ciertas soluciones que implementa, puede que llevadas a otros contextos no sean válidas. Los humanos creamos estrategias de solución de problemas que son extrapolables a diferentes contextos. Esto nos facilita abordar multitud de problemas. Sin embargo en el caso de la I.A., el aprendizaje a través de un algoritmo, puede crear soluciones válidas pero que en un entorno diferente no tengan sentido.
    La I.A. no tiene capacidad de distinguir entre lo simulado y lo real. En el proceso de tratar los datos a través de un algoritmo, no será capaz de distinguir si el problema planteado procede de información real o simulada. Eso significa que una solución admisible o correcta en un contexto de simulación puede no ser válida en la realidad.  
    Los problemas de la I.A. no solo aparecen en los aspectos técnicos. Hay implicaciones más allá que son las que nos suelen provocar miedo. Una de ellas es la ‘singularidad tecnológica’, es decir el hipotético caso en el que un sistema informático fuera capaz de mejorarse a si mismo y de superar a los humanos. Todos hemos visto alguna película en la que los robots o una I.A tomaba conciencia de sí misma y el siguiente paso era hacerse con el dominio del mundo. Si suponemos que pudiéramos crear una simulación perfecta del pensamiento humano podría ocurrir, ¿no?. Claro que, en el momento que adquiera conciencia de sí misma y esté dotada de sentimientos humanos, ¿siempre será mala?. Suponer que será así implica suponer que la inteligencia humana está siempre definida por el mal y no por la colaboración o la protección de los otros. Sería suponer que carecemos de empatía, y si creemos que al generar una inteligencia artificial igual a la humana se va a encaminar hacia el lado oscuro, ¿no sería suponer que la conciencia humana es mala? ¿Todos nacemos con una inteligencia encaminada a la destrucción de lo que nos rodea y de los otros?.
    Para evitar que esta situación se pudiera producir podemos establecer unas leyes que limiten lo que una I.A. puede hacer, en este caso estarían enfocadas a los robots con posibilidad de tener conciencia. Sin embargo creo que las podemos considerar válidas en el caso de la I.A. De hecho algunas de ellas están enunciadas desde hace mucho tiempo:
- Un robot no puede hacer daño a un humano, o por inacción, permitir que un ser humano sufra daño.
- Un robot debe obedecer las órdenes dadas por los seres humanos, salvo que entren en conflicto con la primera ley.
- Un robot debe proteger su propia existencia salvo que esto entre en conflicto con las dos leyes anteriores.
Isaac Asimov
- Un robot debe establecer siempre su identidad como robot.
Lyuba Dilov
- Un robot debe saber que es un robot.
Nikola Kesarovski
    ¿Qué pensáis de estas leyes de la robótica? ¿Son suficientes?
    Somos humanos así que en ocasiones nos dejamos llevar por el pánico. Seguramente debido al desconocimiento y porque, en ocasiones, las máquinas nos ofrecen respuestas que analizadas desde nuestro contexto, nos pueden provocar miedo. Por ejemplo en 2014, algunos internautas descubrieron que si se le preguntaba a Siri: “¿Qué día será el 27 de julio de 2014?, su respuesta era: “La apertura de las puertas del infierno”. ¿Os imagináis el susto?, al final os cuento la explicación y os recomiendo un libro.
    ¿Destrucción de humanos? Imaginad que indicamos a un dron, que tiene I.A., que mantenga alejados a animales intrusos de nuestra piscina. Le damos la pauta de reconocimiento de que tiene que darle una descarga eléctrica a cualquier cosa en la que detecte calor corporal y que tenga cuatro patas. Seguramente lo primero que hará sera darle una descarga al perro y la siguiente al bebé de los vecinos que gatea. Supongo que en ese momento tendremos que ayudar al sistema a reconducir al algoritmo para que aprenda. Podría pasar, ¿no?. Esto significa que debemos ser cuidadosos con lo que pretendemos crear con la I.A. , pero esto no depende de ella misma, depende de lo que nosotros pretendamos así que, el problema no es suyo es nuestro.
     Tengo la impresión de que siempre vemos lo malo. Sin embargo, contar con una inteligencia artificial nos puede ayudar a realizar trabajos desagradables, laboriosos o problemáticos. Además no enferman y no necesitan descanso. Aunque eso significa que nos podemos quedar sin ciertos trabajos. Pero en una sociedad occidental envejecida, ¿no creéis que nos resultará muy útil para el cuidado de ancianos o para la prevención y el diagnóstico de enfermedades?. ¿Y para operaciones que exigen precisión milimétrica? ¿O en el acompañamiento o en la educación?. Creo que puede aportarnos muchísimas cosas buenas e interesantes. El único ámbito del que mantendría alejada a la I.A. es de cuestiones militares. En este caso sí me parece peligroso, especialmente en malas manos.
    ¿Hay que poner límites éticos a la programación de I.A.?  Tomemos como ejemplo los coches autónomos. Parece lógico suponer que en el caso de choque inminente con un peatón estos den prioridad a salvar la vida del peatón ya que en el interior del coche existen medidas de seguridad para protegernos. Si tus hijas van dentro del coche: ¿irías en un coche que antepone la seguridad de los de fuera a los de dentro?. Probablemente sea en este aspecto en el que costará que se pueda establecer una vía clara de resolución. Tratamos con aspectos morales y éticos. En este caso no se trata de una solución objetiva. A mí me parece muy complejo diseñar modelos que resuelvan estos problemas de forma satisfactoria. Si queréis experimentar hay una herramienta diseñada por el MIT, llamada MORAL MACHINE.
    En cualquiera de los casos lo verdaderamente interesante del asunto es hasta dónde seremos capaces de llegar para crear I.A. similar a la humana. Al fin y al cabo el desarrollo de estas herramientas está en manos humanos y son los creadores de los algoritmos los que tienen que tener en cuenta los criterios éticos a la hora de desarrollarlos ya que, la máquina aprenderá lo que le dejemos aprender.
    Creo que no somos capaces de comprender en toda su magnitud y su complejidad el procesamiento mental humano. No podemos establecer leyes de comportamiento o vaticinar con certeza la solución a un problema. Así que es complicado que lo que la evolución ha creado a lo largo del tiempo lo pueda hacer una creación humana como es la I.A. en poco tiempo. En cualquier caso si somos capaces de emular una mente humana habríamos conseguido otra mente humana, muy buena para unas cosas pero ineficaz para otras. Sería exactamente igual que nosotros. Por lo tanto estaríamos en la misma situación que ahora. Sólo habríamos conseguido tener más mentes. Creo que llegar a este punto frenaría el avance de la I.A. por sí mismo. Habríamos alcanzado el límite de desarrollo al crear una mente artificial humana y con ello no habríamos logrado mejorar el pensamiento o el procesamiento humano.
Os dejo una pregunta para pensar un rato…si tuvierais a vuestro alcance la tecnología para crear cualquier tipo de I.A. ¿cuál sería vuestra creación?.
  
Recomendación:
La respuesta a pregunta de ¿qué día sera el 27 de julio de 2014?, la respuesta de Siri era: “La apertura de las puertas del Infierno”. Esta respuesta que podría provocar pánico en mucha gente se debe a que se trataba del fin del ramadán y parece ser que eso es lo que anuncia el Corán. Esta y otras cosas curiosas las podéis encontrar en el libro ‘ 14 maneras de destruir la humanidad’ de Daniel Arbós y Márius Belles Ed. Next Door. 

Referencias:
Apuntes de Humberto Bustince

Moral machine

Comentarios

Lo más visto

Divergencia de opiniones

Lo que más ha gustado

Divergencia de opiniones

  En cualquier lugar - ¿Has visto? Xilú es especial, apenas tiene un año y ya te mira como si se fuera a arrancar a hablar y darte un discurso. Me maravilla, desde que nació noto que tiene algo distinto. - Si tú lo dices. Es un bebé, yo no veo nada especial.  - ¡Tú no eres madre y no lo entiendes! - Será eso. Un año después - ¿Has visto? Cuando el resto llora, Xilú calla. Es muy especial, se mueve con calma y su primera palabra ha sido: música. Le encanta oír música.  - ¡Qué bien! Es muy bueno que le guste la música, pero que no llore cuando lo hace el resto... - Eso es porque ha madurado antes que el resto.  - Claro, claro.  Otro año después - ¿Has visto? Xilú es especial, habla lo justo, se sienta a ver la televisión y puede ver un programa de debate sin hablar, alerta y en silencio. A veces creo que está reflexionando sobre lo que dicen. Pone una cara muy graciosa cuando lo hace. - ¿No crees que eso es poco frecuente? Sólo tiene tres años.  - ¡No es raro, es especial! - Vale, vale.

Flores negras

Iba a ser un día especial. En su llamada captó la promesa de una noche inolvidable.  El suave susurro de su voz rozando sus tímpanos lo dejó claro. Era un roce sonoro lleno de expectativas, deleite, dulzura y con la promesa de recrearse en el roce de sus pieles.      La mañana fue un continuo ir y venir, pero improductiva. Varios encontronazos con colegas, pequeñas frases sin relevancia que rozaban la estupidez y arañaban sus ideas. Esos roces siempre eran molestos.      Rozando las seis se preparó para irse. Quería llegar cuanto antes. Se cambió de calzado. No iba a perder el tiempo en el autobús, no. ¡Gente rozándote por todos lados! Volvería andando.      No tardó mucho en darse cuenta de que, por evitar algunos roces, había sufrido otros. Las malditas zapatillas no eran adecuadas y el roce provocó un par de heridas. En fin, ya estaba hecho. No dejó de caminar.      Antes de rozar el llavero, la puerta se abrió. La bienvenida a casa consistió en un leve roce en los labios, una p

May the ´Darth´ side of the Science be with you.