Header Ad

Un ingeniero de Google está tan seguro de que una IA de la empresa tomó conciencia, que lo publicó en internet: Alphabet lo ha suspendido

Uno de los ingenieros de Google ha sido suspendido y acusado de violar las políticas de confidencialidad de la compañía, luego de que diera a conocer sus preocupaciones de que uno de los sistemas de IA hubiera logrado desarrollar sensibilidad.

De acuerdo con The Washington Post, el ingeniero Blake Lemoine, quien trabaja en la parte de Inteligencia Artificial de Google, estaba probando si el modelo LaMDA utilizaba discursos discriminatorios o de odio, y al conversar sobre religión con el sistema, se percató que el chatbot abordó también temas sobre sus derechos y personalidad, opinando incluso sobre la tercera ley de la robótica de Isaac Asimov.

Ya en abril Lemoine había externado sus preocupaciones a los ejecutivos en un documento llamado «¿LaMDA es sensible?», donde se incluyó una transcripción de sus conversaciones con la IA, misma que publicó en Medium una vez que fue suspendido, con argumentos sobre que la Inteligencia contaba con sentimientos, emociones y hasta experiencias subjetivas.

Google consideró que las acciones relacionadas con su trabajo en LaMDA habían violado las políticas de confidencialidad de la compañía, según TWP, pues había llegado a realizar una serie de movimientos «agresivos», como invitar a un abogado para que representara a la IA y hablar con un representante del comité judicial de la Cámara sobre lo que él consideraba como actividades poco éticas de la compañía.