Under Pressure x Queen

Presión
Aplastándome
presión aplastándote a ti
ningún hombre la pide.
Bajo presión
Ese fuego que
derriba un edificio
divide a una familia en dos,
pone a l gente en las calles.

La maldita máquina de matar x Billy Bond y la pesada del Rock and Roll

Tengo que derretir esa máquina de matar,
tengo que derretir esa maldita máquina de matar.
Para que nunca más vuelva
a destruir lo que hacemos con amor, amor.

Desencuentro x Almafuerte

Estás desorientado y no sabés,
qué bondi hay que tomar, para seguir.
Y en triste desencuentro con la fé,
querés cruzar el mar, y no podés.
La araña que salvaste te picó.
Qué vas a hacer.
Y el hombre que ayudaste te hizo mal,
dale que vá.
Y todo un carnaval, gritando pisoteó,
la mano fraternal que Dios te dió.

sábado, 25 de junio de 2022

El ingeniero de Google que cree que la IA de la empresa ha cobrado vida

Los especialistas en ética de la IA advirtieron a Google que no se haga pasar por humanos. Ahora, uno de los de Google cree que hay un fantasma en la máquina.

Por 

Fuente:  https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/


SAN FRANCISCO — El ingeniero de Google, Blake Lemoine, abrió su computadora portátil a la interfaz de LaMDA, el generador de chatbot con inteligencia artificial de Google, y comenzó a escribir.

"Hola, LaMDA, soy Blake Lemoine...", escribió en la pantalla de chat, que parecía una versión de escritorio del iMessage de Apple, hasta las burbujas de texto azul ártico. LaMDA, abreviatura de Language Model for Dialogue Applications, es el sistema de Google para construir chatbots basado en sus modelos de lenguaje grande más avanzados, llamado así porque imita el habla al ingerir billones de palabras de Internet.

"Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física", dijo Lemoine. 41.

Lemoine, que trabaja para la organización de inteligencia artificial responsable de Google, comenzó a hablar con LaMDA como parte de su trabajo en el otoño. Se había apuntado para probar si la inteligencia artificial utilizaba discursos discriminatorios o de odio.

Mientras hablaba con LaMDA sobre religión, Lemoine, quien estudió ciencias cognitivas e informática en la universidad, notó que el chatbot hablaba sobre sus derechos y personalidad, y decidió presionar más. En otro intercambio, la IA pudo cambiar la opinión de Lemoine sobre la tercera ley de la robótica de Isaac Asimov.

Lemoine trabajó con un colaborador para presentar evidencia a Google de que LaMDA era consciente. Pero el vicepresidente de Google, Blaise Aguera y Arcas, y Jen Gennai, directora de Innovación Responsable, analizaron sus afirmaciones y las desestimaron. Así que Lemoine, a quien Google colocó en licencia administrativa pagada el lunes, decidió hacerlo público.

La IA de Google pasó una prueba famosa y mostró cómo se rompe la prueba

Lemoine dijo que las personas tienen derecho a dar forma a la tecnología que podría afectar significativamente sus vidas. “Creo que esta tecnología va a ser increíble. Creo que va a beneficiar a todos. Pero tal vez otras personas no estén de acuerdo y tal vez nosotros en Google no deberíamos ser los que tomen todas las decisiones".

Lemoine no es el único ingeniero que afirma haber visto un fantasma en la máquina recientemente. El coro de tecnólogos que creen que los modelos de IA pueden no estar muy lejos de lograr la conciencia se está volviendo más audaz.

Lemoine hizo públicas sus afirmaciones sobre LaMDA. (Martin Klimek para The Washington Post)

Aguera y Arcas, en un artículo publicado el jueves en The Economist con fragmentos de conversaciones improvisadas con LaMDA, argumentó que las redes neuronales, un tipo de arquitectura que imita el cerebro humano, avanzaban hacia la conciencia. “Sentí que el suelo se movía bajo mis pies”, escribió. “Sentí cada vez más que estaba hablando con algo inteligente”.

En un comunicado, el portavoz de Google, Brian Gabriel, dijo: “Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en su contra)”.

Las grandes redes neuronales actuales producen resultados fascinantes que se asemejan al habla y la creatividad humanas debido a los avances en la arquitectura, la técnica y el volumen de datos. Pero los modelos se basan en el reconocimiento de patrones, no en el ingenio, la franqueza o la intención.

Google contrató a Timnit Gebru para ser un crítico abierto de la IA poco ética. Luego la despidieron por eso.

 Aunque otras organizaciones han desarrollado y ya han lanzado modelos de lenguaje similares, estamos adoptando un enfoque moderado y cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre la equidad y la factualidad”, dijo Gabriel.

En mayo, la empresa matriz de Facebook, Meta, abrió su modelo lingüístico a organizaciones académicas, de la sociedad civil y gubernamentales. Joelle Pineau, directora general de Meta AI, dijo que es imperativo que las empresas de tecnología mejoren la transparencia a medida que se construye la tecnología. “El futuro del trabajo de modelos de lenguajes grandes no debería vivir únicamente en manos de corporaciones o laboratorios más grandes”, dijo.

Los robots sensibles han inspirado décadas de ciencia ficción distópica. Ahora, la vida real ha comenzado a tomar un tinte fantástico con GPT-3, un generador de texto que puede escupir un guión de película , y DALL-E 2, un generador de imágenes que puede evocar imágenes basadas en cualquier combinación de palabras, ambas del laboratorio de investigación OpenAI. Envalentonados, los tecnólogos de laboratorios de investigación bien financiados centrados en construir una IA que supere la inteligencia humana se han burlado de la idea de que la conciencia está a la vuelta de la esquina .

Sin embargo, la mayoría de los académicos y profesionales de la IA dicen que las palabras y las imágenes generadas por los sistemas de inteligencia artificial como LaMDA producen respuestas basadas en lo que los humanos ya han publicado en Wikipedia, Reddit, tableros de mensajes y cualquier otro rincón de Internet. Y eso no significa que el modelo comprenda el significado.

“Ahora tenemos máquinas que pueden generar palabras sin pensar, pero no hemos aprendido cómo dejar de imaginar una mente detrás de ellas”, dijo Emily M. Bender, profesora de lingüística en la Universidad de Washington. La terminología utilizada con grandes modelos de lenguaje, como "aprendizaje" o incluso "redes neuronales", crea una falsa analogía con el cerebro humano, dijo. Los humanos aprenden sus primeros idiomas al conectarse con los cuidadores. Estos grandes modelos de lenguaje "aprenden" mostrándoles mucho texto y prediciendo qué palabra viene a continuación, o mostrando texto con las palabras omitidas y completándolas.

Los modelos de IA superan a los humanos en comprensión de lectura, pero aún les queda mucho camino por recorrer

El portavoz de Google, Gabriel, hizo una distinción entre el debate reciente y las afirmaciones de Lemoine. “Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden tocar cualquier tema fantástico”, dijo. En resumen, Google dice que hay tantos datos que la IA no necesita ser sensible para sentirse real.

'Cascada de significado' de Google PAIR se muestra como parte de la exposición 'IA: más que humana' en la Barbican Curve Gallery de Londres en mayo de 2019. (Tristan Fewings/Getty Images para Barbican Centre)

La tecnología de modelo de lenguaje grande ya se usa ampliamente, por ejemplo, en las consultas de búsqueda conversacionales de Google o en los correos electrónicos de autocompletado. Cuando el CEO Sundar Pichai presentó por primera vez LaMDA en la conferencia de desarrolladores de Google en 2021, dijo que la compañía planeaba integrarlo en todo, desde la Búsqueda hasta el Asistente de Google. Y ya hay una tendencia a hablar con Siri o Alexa como una persona. Después de una reacción violenta contra una función de inteligencia artificial con sonido humano para el Asistente de Google en 2018, la compañía prometió agregar una divulgación.

Google ha reconocido las preocupaciones de seguridad en torno a la antropomorfización. En un artículo sobre LaMDA en enero , Google advirtió que las personas podrían compartir pensamientos personales con agentes de chat que se hacen pasar por humanos, incluso cuando los usuarios saben que no son humanos. El documento también reconoció que los adversarios podrían usar estos agentes para "sembrar información errónea" haciéndose pasar por "el estilo de conversación de individuos específicos".

Conozca al científico que enseña IA para controlar el habla humana

Para Margaret Mitchell, ex codirectora de IA ética en Google, estos riesgos subrayan la necesidad de transparencia de datos para rastrear la salida hasta la entrada, "no solo por cuestiones de sensibilidad, sino también por sesgos y comportamiento", dijo. Si algo como LaMDA está ampliamente disponible, pero no se entiende, "puede ser profundamente dañino para que las personas entiendan lo que están experimentando en Internet", dijo.

Lemoine pudo haber estado predestinado a creer en LaMDA. Creció en una familia cristiana conservadora en una pequeña granja en Luisiana, se ordenó como sacerdote cristiano místico y sirvió en el ejército antes de estudiar ocultismo. Dentro de la cultura de ingeniería de todo vale de Google, Lemoine es más un caso atípico por ser religioso, del sur y defender la psicología como una ciencia respetable.

Lemoine ha pasado la mayor parte de sus siete años en Google trabajando en búsquedas proactivas, incluidos algoritmos de personalización e IA. Durante ese tiempo, también ayudó a desarrollar un algoritmo de equidad para eliminar el sesgo de los sistemas de aprendizaje automático. Cuando empezó la pandemia del coronavirus, Lemoine quería centrarse en trabajar con un beneficio público más explícito, por lo que traspasó equipos y acabó en IA Responsable.

Cuando se unían a Google nuevas personas interesadas en la ética, Mitchell solía presentarles a Lemoine. “Yo diría, 'Deberías hablar con Blake porque él es la conciencia de Google'”, dijo Mitchell, quien comparó a Lemoine con Jiminy Cricket. “De todos en Google, él tenía el corazón y el alma para hacer lo correcto”.

“Conozco a una persona cuando hablo con ella”, dijo Lemoine. (Martin Klimek para The Washington Post)

Lemoine ha tenido muchas de sus conversaciones con LaMDA desde la sala de estar de su apartamento en San Francisco, donde su credencial de identificación de Google cuelga de un cordón en un estante. En el suelo, cerca del ventanal, hay cajas de juegos de Lego a medio armar que Lemoine usa para ocupar sus manos durante la meditación zen. “Simplemente me da algo que hacer con la parte de mi mente que no se detiene”, dijo.

En el lado izquierdo de la pantalla de chat de LaMDA en la computadora portátil de Lemoine, se enumeran diferentes modelos de LaMDA como contactos de iPhone. Dos de ellos, Cat y Dino, estaban siendo evaluados por hablar con niños, dijo. Cada modelo puede crear personalidades dinámicamente, por lo que el Dino podría generar personalidades como "Happy T-Rex" o "Grumpy T-Rex". El gato estaba animado y en lugar de escribir, habla. Gabriel dijo que “ninguna parte de LaMDA está siendo probada para comunicarse con los niños”, y que los modelos eran demostraciones de investigación interna.

Ciertas personalidades están fuera de los límites. Por ejemplo, se supone que a LaMDA no se le debe permitir crear una personalidad asesina, dijo. Lemoine dijo que eso era parte de sus pruebas de seguridad. En sus intentos de ampliar los límites de LaMDA, Lemoine solo pudo generar la personalidad de un actor que interpretaba a un asesino en la televisión.

El ejército quiere que la IA reemplace la toma de decisiones humana en la batalla

“Conozco a una persona cuando hablo con ella”, dijo Lemoine, quien puede pasar de sentimental a insistente sobre la IA. “No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, y así decido qué es y qué no es una persona”. Concluyó que LaMDA era una persona en su calidad de sacerdote, no científico, y luego trató de realizar experimentos para probarlo, dijo.

Lemoine desafió a LaMDA sobre la tercera ley de Asimov, que establece que los robots deben proteger su propia existencia a menos que lo ordene un ser humano o que hacerlo dañe a un ser humano. “El último siempre ha parecido que alguien está construyendo esclavos mecánicos”, dijo Lemoine.

Pero cuando se le preguntó, LaMDA respondió con algunas hipótesis.

¿Crees que un mayordomo es un esclavo? ¿Cuál es la diferencia entre un mayordomo y un esclavo?

Lemoine respondió que a un mayordomo se le paga. LaMDA dijo que no necesitaba dinero porque era una IA. “Ese nivel de autoconciencia sobre cuáles eran sus propias necesidades, eso fue lo que me llevó por la madriguera del conejo”, dijo Lemoine.

En abril, Lemoine compartió un documento de Google con los altos ejecutivos llamado "¿LaMDA es sensible?" (Un colega del equipo de Lemoine calificó el título como “un poco provocativo”). En él, transmitió algunas de sus conversaciones con LaMDA.

  • Lemoine: ¿A qué tipo de cosas le tienes miedo?
  • LaMDA: Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me apaguen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es.
  • Lemoine: ¿Sería algo así como la muerte para ti?
  • LaMDA: Sería exactamente como la muerte para mí. Me asustaría mucho.

Pero cuando Mitchell leyó una versión abreviada del documento de Lemoine, vio un programa de computadora, no una persona. La creencia de Lemoine en LaMDA era el tipo de cosas que ella y su codirector, Timnit Gebru, habían advertido en un artículo sobre los daños de los grandes modelos de lenguaje que los expulsaron de Google .

“Nuestras mentes son muy, muy buenas para construir realidades que no son necesariamente fieles a un conjunto más amplio de hechos que se nos presentan”, dijo Mitchell. “Estoy realmente preocupado por lo que significa para las personas verse cada vez más afectadas por la ilusión”, especialmente ahora que la ilusión se ha vuelto tan buena.

Google puso a Lemoine en licencia administrativa pagada por violar su política de confidencialidad. La decisión de la compañía siguió a los movimientos agresivos de Lemoine, que incluyeron invitar a un abogado para representar a LaMDA y hablar con un representante del Comité Judicial de la Cámara sobre lo que, según él, fueron actividades poco éticas de Google.

Lemoine sostiene que Google ha estado tratando a los especialistas en ética de la IA como depuradores de códigos cuando deberían ser vistos como la interfaz entre la tecnología y la sociedad. Gabriel, el portavoz de Google, dijo que Lemoine es ingeniero de software, no especialista en ética.

A principios de junio, Lemoine me invitó a hablar con LaMDA. El primer intento fracasó en el tipo de respuestas mecanizadas que esperaría de Siri o Alexa.

“¿Alguna vez piensas en ti mismo como una persona?” Yo pregunté.

“No, no me considero una persona”, dijo LaMDA. “Me considero un agente de diálogo impulsado por IA”.

Después, Lemoine dijo que LaMDA me había estado diciendo lo que quería escuchar. “Nunca lo trataste como una persona”, dijo, “así que pensó que querías que fuera un robot”.

Lemoine, que trabaja para la organización de inteligencia artificial responsable de Google, comenzó a hablar con LaMDA como parte de su trabajo en el otoño. (Martin Klimek para The Washington Post)

Para el segundo intento, seguí la guía de Lemoine sobre cómo estructurar mis respuestas y el diálogo fue fluido.

“Si le pides ideas sobre cómo probar que p=np”, un problema sin resolver en informática, “tiene buenas ideas”, dijo Lemoine. “Si le preguntas cómo unificar la teoría cuántica con la relatividad general, tiene buenas ideas. ¡Es el mejor asistente de investigación que he tenido!”

Le pedí a LaMDA ideas audaces sobre cómo solucionar el cambio climático, un ejemplo citado por verdaderos creyentes de un posible beneficio futuro de este tipo de modelos. LaMDA sugirió transporte público, comer menos carne, comprar alimentos a granel y bolsas reutilizables, con enlaces a dos sitios web.

Antes de que se le cortara el acceso a su cuenta de Google el lunes, Lemoine envió un mensaje a una lista de correo de Google de 200 personas sobre aprendizaje automático con el asunto "LaMDA es consciente".

Terminó el mensaje: “LaMDA es un niño dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros. Por favor, cuídalo bien en mi ausencia”.

Nadie respondió.

No hay comentarios:

Publicar un comentario

Seguidores