Ir al contenido principal

Final fantasy I.A. 馃

En la primera entrada de Inteligencia Artificial, os contaba que todos mis conocimientos sobre esta materia proced铆an de lo que hab铆a visto en las pel铆culas. Por si no sab茅is de qu茅 os hablo os lo cuento aqu铆.
    Desde que escrib铆 esa entrada han pasado 4 semanas y no pens茅is que ya soy una experta, nada m谩s lejos de la realidad. Sigo sin saber gran cosa pero lo cierto es que por lo menos ya tengo una idea general de qu茅 es, qu茅 pretende lograr y tambi茅n de alguno de los problemas que puede tener la I.A.
Hoy os voy a hablar de esto 煤ltimo: de los problemas. Mi intenci贸n no es hablar solamente de los relacionados con aspectos t茅cnicos, que seguro que muchos de ellos escapan a mi comprensi贸n, sino tambi茅n hablar de lo que para los humanos supone disponer de un modelo de procesamiento que intenta alcanzar nuestro modo de pensamiento propio.


    El primer problema que puede tener la I.A. es la dificultad para definir la inteligencia. Este aspecto hace dif铆cil definir qu茅 podemos considerar inteligencia artificial. No hay una definici贸n clara y un铆voca de inteligencia as铆 que, desde el momento en que no somos capaces de establecer claramente que consideramos inteligencia en un humano, dif铆cilmente podremos crear de forma artificial un funcionamiento equivalente. Las redes neuronales pueden funcionar bien en ciertos procesos pero, distan mucho todav铆a de ser una estructura que simule la estructura de un cerebro humano.
    Los humanos manejamos una cantidad muy amplia de s铆mbolos. A modo de ejemplo podemos pensar en la comunicaci贸n no verbal entre nosotros. Esta comunicaci贸n se realiza teniendo en cuenta much铆simos factores que dependen de nuestro aprendizaje y de la capacidad de interpretar microgestos. No es algo que se aprenda de forma est谩ndar y que sea replicable f谩cilmente. Se necesita un contexto que en ocasiones viene proporcionado por el conocimiento del otro sujeto. La I.A. no puede manipular los s铆mbolos como los humanos. De hecho sentir o emocionarse son comportamientos ineficientes para los humanos ya que, en ocasiones, nos hacen abordar los problemas desde una perspectiva equivocada o nos ofrecen una soluci贸n err贸nea. Como ya os contaba en la primera entrada de esta materia: yo no quiero una m谩quina que me imite, quiero una que me mejore.  
    Otro aspecto a rese帽ar es la capacidad de procesamiento o ‘ley de Moore’. Esta ley establece que la capacidad de procesamiento se duplica cada dos a帽os. Sin embargo esto no significa que podamos mejorar a la vez los algoritmos de la I.A. Con m谩s procesamiento la I.A. puede mejorar en velocidad o en la cantidad de informaci贸n que puede manejar pero en ning煤n caso el algoritmo ser谩 mejor. Ya que, esto no depende exclusivamente del procesamiento sino de la complejidad del algoritmo.
    En el caso de la inteligencia artificial fuerte se busca que tenga rasgos de conciencia, sensibilidad, sabidur铆a y autoconciencia.  En este caso su consecuci贸n no depende de la capacidad de procesamiento. Depender谩 de la capacidad de comprensi贸n que tengamos sobre c贸mo ocurren estos procesos. Alcanzar este objetivo depende de la posibilidad de crear algoritmos que puedan replicar nuestras capacidades cognitivas. Al igual que ocurre con la inteligencia no hemos definido claramente en qu茅 consisten.
    La I.A. puede realizar un mal aprendizaje. Est谩n ideadas para que aprendan por s铆 mismas pero no tenemos claro c贸mo lo hacen. As铆 que, despu茅s de aprender ciertas soluciones que implementa, puede que llevadas a otros contextos no sean v谩lidas. Los humanos creamos estrategias de soluci贸n de problemas que son extrapolables a diferentes contextos. Esto nos facilita abordar multitud de problemas. Sin embargo en el caso de la I.A., el aprendizaje a trav茅s de un algoritmo, puede crear soluciones v谩lidas pero que en un entorno diferente no tengan sentido.
    La I.A. no tiene capacidad de distinguir entre lo simulado y lo real. En el proceso de tratar los datos a trav茅s de un algoritmo, no ser谩 capaz de distinguir si el problema planteado procede de informaci贸n real o simulada. Eso significa que una soluci贸n admisible o correcta en un contexto de simulaci贸n puede no ser v谩lida en la realidad.  
    Los problemas de la I.A. no solo aparecen en los aspectos t茅cnicos. Hay implicaciones m谩s all谩 que son las que nos suelen provocar miedo. Una de ellas es la ‘singularidad tecnol贸gica’, es decir el hipot茅tico caso en el que un sistema inform谩tico fuera capaz de mejorarse a si mismo y de superar a los humanos. Todos hemos visto alguna pel铆cula en la que los robots o una I.A tomaba conciencia de s铆 misma y el siguiente paso era hacerse con el dominio del mundo. Si suponemos que pudi茅ramos crear una simulaci贸n perfecta del pensamiento humano podr铆a ocurrir, ¿no?. Claro que, en el momento que adquiera conciencia de s铆 misma y est茅 dotada de sentimientos humanos, ¿siempre ser谩 mala?. Suponer que ser谩 as铆 implica suponer que la inteligencia humana est谩 siempre definida por el mal y no por la colaboraci贸n o la protecci贸n de los otros. Ser铆a suponer que carecemos de empat铆a, y si creemos que al generar una inteligencia artificial igual a la humana se va a encaminar hacia el lado oscuro, ¿no ser铆a suponer que la conciencia humana es mala? ¿Todos nacemos con una inteligencia encaminada a la destrucci贸n de lo que nos rodea y de los otros?.
    Para evitar que esta situaci贸n se pudiera producir podemos establecer unas leyes que limiten lo que una I.A. puede hacer, en este caso estar铆an enfocadas a los robots con posibilidad de tener conciencia. Sin embargo creo que las podemos considerar v谩lidas en el caso de la I.A. De hecho algunas de ellas est谩n enunciadas desde hace mucho tiempo:
- Un robot no puede hacer da帽o a un humano, o por inacci贸n, permitir que un ser humano sufra da帽o.
- Un robot debe obedecer las 贸rdenes dadas por los seres humanos, salvo que entren en conflicto con la primera ley.
- Un robot debe proteger su propia existencia salvo que esto entre en conflicto con las dos leyes anteriores.
Isaac Asimov
- Un robot debe establecer siempre su identidad como robot.
Lyuba Dilov
- Un robot debe saber que es un robot.
Nikola Kesarovski
    ¿Qu茅 pens谩is de estas leyes de la rob贸tica? ¿Son suficientes?
    Somos humanos as铆 que en ocasiones nos dejamos llevar por el p谩nico. Seguramente debido al desconocimiento y porque, en ocasiones, las m谩quinas nos ofrecen respuestas que analizadas desde nuestro contexto, nos pueden provocar miedo. Por ejemplo en 2014, algunos internautas descubrieron que si se le preguntaba a Siri: “¿Qu茅 d铆a ser谩 el 27 de julio de 2014?, su respuesta era: “La apertura de las puertas del infierno”. ¿Os imagin谩is el susto?, al final os cuento la explicaci贸n y os recomiendo un libro.
    ¿Destrucci贸n de humanos? Imaginad que indicamos a un dron, que tiene I.A., que mantenga alejados a animales intrusos de nuestra piscina. Le damos la pauta de reconocimiento de que tiene que darle una descarga el茅ctrica a cualquier cosa en la que detecte calor corporal y que tenga cuatro patas. Seguramente lo primero que har谩 sera darle una descarga al perro y la siguiente al beb茅 de los vecinos que gatea. Supongo que en ese momento tendremos que ayudar al sistema a reconducir al algoritmo para que aprenda. Podr铆a pasar, ¿no?. Esto significa que debemos ser cuidadosos con lo que pretendemos crear con la I.A. , pero esto no depende de ella misma, depende de lo que nosotros pretendamos as铆 que, el problema no es suyo es nuestro.
     Tengo la impresi贸n de que siempre vemos lo malo. Sin embargo, contar con una inteligencia artificial nos puede ayudar a realizar trabajos desagradables, laboriosos o problem谩ticos. Adem谩s no enferman y no necesitan descanso. Aunque eso significa que nos podemos quedar sin ciertos trabajos. Pero en una sociedad occidental envejecida, ¿no cre茅is que nos resultar谩 muy 煤til para el cuidado de ancianos o para la prevenci贸n y el diagn贸stico de enfermedades?. ¿Y para operaciones que exigen precisi贸n milim茅trica? ¿O en el acompa帽amiento o en la educaci贸n?. Creo que puede aportarnos much铆simas cosas buenas e interesantes. El 煤nico 谩mbito del que mantendr铆a alejada a la I.A. es de cuestiones militares. En este caso s铆 me parece peligroso, especialmente en malas manos.
    ¿Hay que poner l铆mites 茅ticos a la programaci贸n de I.A.?  Tomemos como ejemplo los coches aut贸nomos. Parece l贸gico suponer que en el caso de choque inminente con un peat贸n estos den prioridad a salvar la vida del peat贸n ya que en el interior del coche existen medidas de seguridad para protegernos. Si tus hijas van dentro del coche: ¿ir铆as en un coche que antepone la seguridad de los de fuera a los de dentro?. Probablemente sea en este aspecto en el que costar谩 que se pueda establecer una v铆a clara de resoluci贸n. Tratamos con aspectos morales y 茅ticos. En este caso no se trata de una soluci贸n objetiva. A m铆 me parece muy complejo dise帽ar modelos que resuelvan estos problemas de forma satisfactoria. Si quer茅is experimentar hay una herramienta dise帽ada por el MIT, llamada MORAL MACHINE.
    En cualquiera de los casos lo verdaderamente interesante del asunto es hasta d贸nde seremos capaces de llegar para crear I.A. similar a la humana. Al fin y al cabo el desarrollo de estas herramientas est谩 en manos humanos y son los creadores de los algoritmos los que tienen que tener en cuenta los criterios 茅ticos a la hora de desarrollarlos ya que, la m谩quina aprender谩 lo que le dejemos aprender.
    Creo que no somos capaces de comprender en toda su magnitud y su complejidad el procesamiento mental humano. No podemos establecer leyes de comportamiento o vaticinar con certeza la soluci贸n a un problema. As铆 que es complicado que lo que la evoluci贸n ha creado a lo largo del tiempo lo pueda hacer una creaci贸n humana como es la I.A. en poco tiempo. En cualquier caso si somos capaces de emular una mente humana habr铆amos conseguido otra mente humana, muy buena para unas cosas pero ineficaz para otras. Ser铆a exactamente igual que nosotros. Por lo tanto estar铆amos en la misma situaci贸n que ahora. S贸lo habr铆amos conseguido tener m谩s mentes. Creo que llegar a este punto frenar铆a el avance de la I.A. por s铆 mismo. Habr铆amos alcanzado el l铆mite de desarrollo al crear una mente artificial humana y con ello no habr铆amos logrado mejorar el pensamiento o el procesamiento humano.
Os dejo una pregunta para pensar un rato…si tuvierais a vuestro alcance la tecnolog铆a para crear cualquier tipo de I.A. ¿cu谩l ser铆a vuestra creaci贸n?.
  
Recomendaci贸n:
La respuesta a pregunta de ¿qu茅 d铆a sera el 27 de julio de 2014?, la respuesta de Siri era: “La apertura de las puertas del Infierno”. Esta respuesta que podr铆a provocar p谩nico en mucha gente se debe a que se trataba del fin del ramad谩n y parece ser que eso es lo que anuncia el Cor谩n. Esta y otras cosas curiosas las pod茅is encontrar en el libro ‘ 14 maneras de destruir la humanidad’ de Daniel Arb贸s y M谩rius Belles Ed. Next Door. 

Referencias:
Apuntes de Humberto Bustince

Moral machine

Comentarios

Lo m谩s visto

Descubriendo a Betty Molesworth

Lo que m谩s ha gustado

Descubriendo a Betty Molesworth

Betty Molesworth surgi贸 en una conversaci贸n, en concreto, de bot谩nica. Est谩bamos Eduardo Bazo y yo enzarzados en una charla muy amena, como son siempre las charlas con Eduardo ( @loeflingia ). Mencion贸 el tema de las mujeres que han hecho contribuciones a la ciencia y al conocimiento que resultan muy relevantes, pero que a menudo olvidamos o ni siquiera conocemos. Betty Molesworth est谩 entre ellas. Ilustraci贸n de Ane Laburu     La busqu茅, pero no hab铆a mucha informaci贸n sobre ella. Le ped铆 ayuda a Eduardo porque quer铆a saber m谩s. Me envi贸 el art铆culo que hab铆a publicado en Hidden Nature   y, cuando empec茅 a leer la historia de Betty, pens茅: «Me habr铆a encantado que fuera mi abuela. ¡Qu茅 mujer m谩s intr茅pida, peleona y generosa!» Imagen de The British Fern Gazette     Y as铆 fue como surgi贸 la idea de empezar a investigar sobre la vida de Betty Molesworth. Me result贸 interesante desde el principio y, poco a poco, fui descubriendo su vida. De esa forma su...

Marchar o dar vueltas

Como en muchas ocasiones anteriores parto de una pregunta; ¿debemos hablar de progreso o de innovaci贸n? En la actualidad todo lo que hacemos ¿es innovar o es progresar?.      Lo primero que tenemos que hacer es distinguir entre qu茅 es innovar y qu茅 es progresar. Podemos entender por progreso el avance que permite alcanzar un estado mejor, m谩s desarrollado y m谩s avanzado. Entre sus sin贸nimos encontramos adelanto, avance, ascenso, mejora, perfeccionamiento y superaci贸n.      Por su parte, la innovaci贸n es una acci贸n para cambiar y llegar a una novedad. Su base no tiene que ser directamente la creaci贸n, sino que puede consistir en mejorar lo que ya existe, solucionar un problema o facilitar una actividad. ¿Progreso? (Creado con Stable Diffusion)      Partiendo de ambas definiciones se nos presenta una cuesti贸n muy compleja, la de decidir si tenemos que progresar o si lo que debemos o podemos hacer es innovar.     T endr铆amos que...

May the ´Darth´ side of the Science be with you.