Unha amiga contoume que cando era pequena tiñan un papagaio que falaba moitísimo e imitaba á súa nai á perfección. Albina era o seu modelo e repetía moitas das súas expresións por exemplo o mítico: A comerrr! E o mellor é que a continuación gritaba os nomes do sete irmáns por rigorosa orde de idade. Un papagaio moi listo.
Esta anécdota veu a colación cando eu bromeaba do modo peculiar en que a miña amiga falaba a Alexa e tirando do fío chegamos á conclusión de que trataba ao seu asistente de voz igual que a súa nai ao paxaro. Isto fíxome pensar que a sabedoría pode ser algo emerxente e inexplicable estatisticamente, como a beleza.
Animais que falan, obxectos que falan, de pequenos cremos firmemente neste fenómeno e de maiores séguenos fascinando.
É interesante saber como se relaciona unha persoa co seu asistente de voz, imaxino que no futuro será unha rama da psicoloxía. Ao parecer moita xente grita e insulta aos seus asistentes de voz, mesmo en 2022 Google fixo unha campaña en México chamada #Nomehablesasi para frear a gran cantidade solicitudes agresivas ou abusivas dos usuarios ao seu asistente.
No outro extremo temos aos que din: Alexa, cala por favor. Pode ser por costume de dicir a coletilla, por distancia formal como un lord inglés co seu mordomo ou por inxenuidade tecnolóxica. Supoño que isto último é o máis probable, porque quen lle dá as grazas á cafetera, á lavadora ou calquera electrodoméstico? O psicólogo dos electrodomésticos diría que esta relación é máis sa pero non deixa de ser bastante ridícula.
ChatGpt ten un uso máis profesional, o que dá lugar a unha interacción máis precisa e inquisitiva, aínda que cando saíu a versión gratuíta e medio mundo probou o novo boneco parlante, moita xente insultábao ou lle contaba a súa vida como a un amigo, humanizando a relación nun ou outro sentido en maior medida que cos asistentes de voz.
Pero mesmo no uso profesional deime conta de que moita xente é extremadamente amable co bot, porque se correu por internet que se conseguen mellores resultados se o tratas con cortesía. Penso que non é así, se lle pides por favor a receita de pito ao curry, entra no contexto do teu ton amable e contéstache con zalamerías apropiadas a ese perfil e despídese cun que aproveite como resposta á túa por favor. En todos estes artigos sobre o tema dan como referencia un vídeo de Microsoft que en realidade non di iso exactamente senón que aconsella a cortesía, o que me fai sospeitar que Copilot atópase na súa propia campaña de #Nomehablesasi.
Pero existe unha publicación con validez científica que parece favorecer esta tendencia. Este estudo mostra os efectos de introducir emotional triggers nos prompts dos grandes modelos de linguaxe (LLMs).
No paper aparece unha lista dos 11 Emotional Prompts utilizados e son moi graciosos en plan coaching, tipo ti podes, stay focus, double check… Só un é do tipo que entenderiamos como emocional, o EP2 “isto é moi importante para a miña carreira”, pero creo que non foi dos que deu mellor resultado no benchmark xenérico.
Os LLMs teñen arquitectura Transformer ou similar, para eles o máis importante é ter un bo contexto. Os prompts con sesgos emocionais poden proporcionar un contexto máis rico, permitindo ao modelo utilizar o seu mecanismo de atención para xerar respostas máis axustadas. Pero os medios difundiron unha versión infantilizada deste fenómeno cun narrativa tipo dar as grazas á roomba.
Pregúntome cal é a fonte da que absorbe ChatGpt os seus contextos emocionais. Evidentemente, os datos máis alimenticios estarían nos perfís públicos das redes sociais, nos foros, os comentarios de blogs? Todo iso convenientemente filtrado, por suposto.
No mesmo sentido de crear contexto funciona ben o de crear máscaras, persoas, empezar o prompt dicindo ao chat cal é o seu rol e cal é o teu. Polo menos GPT4, que é o que eu coñezo un pouco, é super sensible a estes teatriños e as súas respostas poden variar radicalmente se sitúas a acción nun laboratorio de física cuántica ou nunha reunión de bar.
Tamén vin por aí que ChatGPT mellora os seus resultados se lle prometes unha propina en diñeiro, e isto considérase un fenómeno emerxente porque ninguén en OpenAI adestrou ao bot neste sentido. Pero que significa ?emerxente?? A quen lle estraña que un chatbot compórtese como unha humana media.
A expresión papagaio estocástico procede dun paper que desconfía do entendemento real dos LLMs a pesar da súa aparencia razoable. Non sabería valoralo cientificamente, e en realidade dáme igual, para min o seu gran valor é consagrar un meme conceptual que resoa nas nosas mentes, o papagaio estocástico.
Se todos os patróns da intelixencia humana son á vez patróns de linguaxe, podemos ensinar eses patróns lingüísticos a unha máquina e con iso recreamos a intelixencia de forma indistinguible. É o que Turing defendía, parecer intelixente é o mesmo que selo a efectos prácticos. E non esquezamos a parte de “a efectos prácticos”, por exemplo en moitos traballos de oficina co parecido abonda.
Actualmente o auxe dos robots dotados de IA parece imparable e esta industria precisa, ademais da información textual sobre as emocións que proporcionan os modelos de linguaxe, engadir parámetros de entonación e énfases, ademais de análises biométricos para identificar e expresar emocións. E entón deberemos preguntarnos parecer sensible é o mesmo que selo? Para cando un test de Turing emocional?