Lo impresionante de lo que pasó ahora es que el engañado no es un externo. O sea, no es una persona medio perdida que no entiende nada de internet y te pasa fake news, sino un ingeniero de Google. Claro, algunos dicen que es uno muy particular porque es también un sacerdote, o, mucho más concreto, una persona que no tiene entrenamiento en machine learning, pero sigue siendo un empleado de Google que cree que una máquina es sensible. Para entender más de esto, hablé con alguien que trabaja en Google en estos temas (prefiere no dar su nombre). La primera pregunta que le hice fue de qué hablamos cuando hablamos de ética en IA. Su respuesta: “La IA impulsa el motor de búsqueda de Google, permite que Facebook dirija la publicidad y también que Alexa y Siri hagan su trabajo. La IA también está detrás de los autos sin conductor, la vigilancia predictiva y las armas autónomas que pueden matar sin intervención humana”. Todo esto, obviamente, abre preguntas relacionadas a la ética. Él las organiza en tres grandes temas: privacidad y vigilancia, replicar y amplificar prejuicios y discriminación, y el rol del juicio humano (es decir la delegación de la toma de decisiones). En el caso de seguridad y vigilancia, lo que sucede es que “estos sistemas permiten control a escalas sin precedentes”. ¿Qué pasa con los sesgos humanos? “La IA no sólo tiene el potencial de replicar los sesgos humanos (a través de los datos de entrenamiento así como los de sus creadores), sino que vienen enmascarados con una especie de credibilidad científica. Hace creer que estas predicciones y juicios tienen un status objetivo.” Es decir, lo que escribieron Gebru y Mitchell. La situación es complicada porque “estas decisiones son comúnmente poco transparentes: no hay una forma clara de saber cómo la IA tomó estas decisiones. Ahora mismo hay muchos esfuerzos de investigación para mejorar este aspecto”. Y la situación puede ser aún más complicada en el futuro porque “si en algún momento tenemos (o cuando tengamos) máquinas que sean más inteligentes que nosotros, ¿quien debe tomar las decisiones? ¿Está bien que delegamos ciertas decisiones a las máquinas? ¿Hay algo del juicio humano que es imprescindible?” Le pregunto también si las máquinas pueden tener sentimientos. Me dice que “es difícil responder esta pregunta, porque ni siquiera hay una definición filosófica aceptada al respecto. Todos podemos estar de acuerdo en algunos aspectos (identidad, autoconciencia) pero obviamente hay mucho más que eso. Si bien la neurociencia ha logrado grandes avances sobre el origen, naturaleza y procesos de la conciencia en los humanos, existen todavía muchísimas interrogantes abiertas”. El punto es que hay preguntas abiertas sobre las propiedades de la conciencia y “la posibilidad de que no sean biológicas sino funcionales (o computacionales)”. Me dice: “ningún modelo de la actualidad parece implementar los cálculos que las principales teorías (computacionales) de la conciencia consideran necesarias para su existencia -por ejemplo, un esquema de atención, meta-representaciones de la percepción”. La siguiente pregunta es si la conciencia es necesaria para obtener IA. Resulta que “hay un bando que piensa que la inteligencia y la conciencia son disociables. Es decir, vamos a poder construir máquinas super-inteligentes que no se volverán conscientes en absoluto (como lo hacen los humanos). La otra opción es que la conciencia (como la memoria o las habilidades cognitivas), será necesaria para resolver algunas tareas muy difíciles, y surgirá naturalmente, de la misma forma en que lo hacen la intuición, la creatividad u otros aspectos.” Pero, agrega que, “ninguna empresa tecnológica u organización investigando en IA tiene, que yo sepa, como objetivo obtener máquinas conscientes”. Sin embargo, aclara que hay gente que piensa que estamos muy cerca, y más cerca de lo que se admite. La última pregunta que le hago es si Google está solo en esto y dice que no, que hay una gran cantidad de empresas, universidades y organizaciones trabajando en el tema. Todos ellos buscan “comparar esas máquinas inteligentes con la mente humana”, para aprender “qué cosas siguen siendo exclusivas de la mente humana (conciencia, soñar y creatividad) y qué podemos aprender de eso”. Ser humanoLe pregunto a Santiago Armando, filósofo que está haciendo su doctorado en filosofía e inteligencia artificial, qué es ser humano. Él reformuló la pregunta en el siguiente sentido: “La pregunta que nos interesa es ‘qué nos distingue de todas las demás cosas’, y resulta que es mucho más difícil de contestar de lo que creíamos. Al menos, si no creemos en Dios o en la existencia del alma. Los seres humanos estamos hechos de los mismos componentes que todas las demás cosas del universo, así que ¿por qué seríamos especiales?”. Un baldazo de agua fría. Santiago sigue: “Se supone que tenemos capacidades, efectivas o potenciales, que otras entidades del universo no tienen, pero es muy difícil tratar de dar una lista específica de capacidades. Cada vez que tratamos de dar una lista, lo que hacemos es definir una serie de tareas específicas, y resulta que las computadoras son bastante buenas resolviendo tareas específicas. En la década del 70, Douglas Hofstadter, pionero en la investigación y divulgación sobre inteligencia artificial, apostaba que las computadoras nunca iban a poder jugar al ajedrez, y que si eso pasaba era hora de empezar a preocuparnos. Pasó hace 25 años, y nadie anda muy preocupado”. Y enseguida llegamos a la clave de la confusión de Lemoine. Santiago dice que “una de las cosas que parece que los seres humanos hacemos de modo más o menos característico (aunque los delfines y los primates superiores parecen hacer cosas medio parecidas) es conversar. De ahí la idea de Turing de que una computadora “inteligente” es una que logre hacerle creer a un humano que está conversando con otro humano. Y esto es un poco lo que pasó acá. Una computadora “logró engañar” a alguien que debería ser un especialista (aunque dicen que uno bastante extravagante). En general, en el mundo de la inteligencia artificial no se considera que pasar un test de Turing sea equivalente a ser inteligente. Las computadoras ya son bastante buenas conversando con humanos, pero parece que lo hacen de un modo distinto: reconocen patrones probabilísticos (qué palabras, oraciones o párrafos suelen aparecer yuxtapuestos). Lo que hace un ser humano cuando conversa es algo distinto.” Pero ¿qué es eso distinto? “Lo que nos distingue es algo así como una ‘inteligencia general’, que nadie sabe muy bien cómo definir. Sabemos que hay algo distintivo en cómo aprendemos y procesamos información, pero todavía no sabemos bien qué es. ¿Eso significa que una computadora nunca va a poder hacerlo? Difícil, si aceptamos que todo lo que pasa en nuestro cerebro (y, algo de lo que a veces los investigadores en inteligencia artificial se olvidan, en nuestro cuerpo) es un resultado de interacciones de materia y energía, no hay nada mágico ni especial en lo que nos hace humanos. Lo que sea que tengamos, aunque nos cueste definirlo, quizás puedan tenerlo también las máquinas.” Le pregunto a Santiago por qué cree que a las personas nos gusta pensar que las máquinas tienen sentimientos y Santiago cree que eso no es así, que solo a los autores de ciencia ficcion les gusta jugar con esa idea (piensa en Her, Ex Machina, Westworld, varios capítulos de Black Mirror), pero que a las personas no: “nadie cree de verdad que una máquina pueda enamorarse. O, para ser justos, los que creen eso son una minoría”. Él dice que “las personas podemos ‘jugar’ a que estamos interactuando con algo que tiene sentimientos, y podemos dejarnos llevar por ese juego, pero en la mayoría de los casos podemos darnos cuenta de que estamos jugando. Y quizás la ciencia ficción que aborda este tema nos divierte porque sabemos que es un juego. Si la cosa se pone seria, quizás deje de resultarnos entretenido”. Pero Santiago termina con algo clave, que tiene que ver también con las declaraciones altisonantes de Agüera y Arcas: “puede ser que el límite entre el juego y lo serio se vuelva borroso. Y puede ser útil que ese límite se vuelva borroso”. Por ejemplo, “hay mucha gente pensando en asistentes terapéuticos de inteligencia artificial, que den respuestas informadas y personalizadas ante el relato de un paciente”. Es decir, Santiago alude al incentivo económico a tener robots que sean como personas. El poder de GoogleCuando difundió esta información, Lemoine opinó que la gente tiene derecho a saber qué estaba pasando y a intentar moldear la tecnología que afecta sus vidas. Y agregó: “Creo que esta tecnología va a ser increíble. Creo que va a beneficiar a todos. Pero tal vez otras personas no estén de acuerdo y tal vez nosotros en Google no deberíamos ser los que tomemos todas las decisiones”. Como dije arriba, cuando Nitasha Tiku le hace preguntas a LaMDA, algunas de esas preguntas incomodan a Lemoine. Prefiere que LaMDA sea tratada de cierta manera y solo conteste a algunas cosas, no a todas. Entre las cosas que Lemoine expresa sobre no ponerla nerviosa o no decirle ciertas cosas, se le escapa algo tan obvio como aterrador: “cuando [LaMDA] no sabe la respuesta, la googlea”. El del estriboCosas que pasan- Filtraron un video privado del actor catalán Santi Millán teniendo sexo con una mujer que no es su esposa. Su esposa contestó de un modo bastante original para la sociedad pacata y morbosa en la que vivimos. Se puede leer su respuesta acá.
Gracias por llegar hasta acá. Un abrazo, Jimena PD: Si tenés ganas, podés colaborar con nuestro periodismo acá. |
No hay comentarios:
Publicar un comentario