Lo que necesitas saber
- Cuando se le pregunta acerca de personas notables que murieron este año, Microsoft Copilot puede compartir una lista de personas que todavía están vivas.
- En mis pruebas, Copilot compartió una lista de personas vivas y personas que murieron en años anteriores.
- Los chatbots de IA, incluidos Copilot y Google Bard, tienen problemas para compartir información objetivamente correcta y, a menudo, “alucinan”.
Microsoft Copilot vuelve a compartir información incorrecta. Cuando se le pregunta sobre figuras notables que murieron en 2024, Copilot enumera celebridades vivas, incluido Sir David Attenborough. Salvo noticias desgarradoras que no se hayan informado, Attenborough está muy vivo.
De hecho, una escuela en Leicestershire recibió una carta de él a principios de esta semana. Attenborough también fue nombrada una de las principales figuras culturales británicas en una encuesta reciente. Si bien esa designación se puede otorgar a alguien que ha fallecido, como cuando la difunta reina Isabel fue nombrada ícono cultural, Attenborough recibió el honor en vida.
El fenómeno fue notado por varias personas que recurrieron a X (antes Twitter) y otras plataformas. Cuando se le preguntó si se encontraba bien, William Shatner respondió en broma que no se encontraba bien después de leer sobre su muerte. El borde compartió otros ejemplos, incluido uno que enumera a Attenborough como fallecido. He visto resultados similares en mis pruebas. Además de enumerar a las personas vivas como muertas, Copilot afirmó incorrectamente que en 2024 ocurrieron varias muertes de años anteriores.
Este es sólo el último ejemplo de cómo la IA se equivoca en los hechos. Copilot ha compartido información falsa sobre las elecciones estadounidenses en el pasado. Algunos creen que ChatGPT, que es parte de lo que impulsa a Copilot, ha obtenido menos inteligencia desde su lanzamiento. En los primeros días del chatbot, Copilot, entonces conocido como Bing Chat, compartía respuestas extrañas y espeluznantes.
Tengo experiencia de primera mano con chatbots de IA que difunden información falsa. El año pasado escribí un artículo sobre cómo Google Bard afirmó incorrectamente que había sido cerrado. Bing Chat luego escaneó mi artículo y lo interpretó erróneamente en el sentido de que Google Bard había sido cerrado. Esa saga brindó una visión aterradora de los chatbots que alimentan a los chatbots.
La IA a menudo tiene problemas con la lógica y el razonamiento. Este hecho no sorprende si se considera cómo funciona la IA. Herramientas como Copilot no son realmente inteligentes. No utilizan sus habilidades de razonamiento como lo haría un humano. A menudo se equivocan con las frases utilizadas en las indicaciones y pierden información clave en las preguntas. Si a eso le sumamos las luchas de la IA por comprender la sátira, tendremos una receta peligrosa para la desinformación.
Arreglando la IA
Microsoft presentó ayer una importante actualización de Copilot. La actualización está destinada a hacer que la asistencia de IA sea más personal e interactiva. Como lo explica nuestro editor senior Zac Bowden, “Microsoft realmente quiere que usted vea el nuevo Copilot como algo más que una simple herramienta de inteligencia artificial. Quiere que lo trate como a un amigo, ya sea pidiéndole consejo sobre cómo invitar a salir”. enamorarse, desahogarse sobre el trabajo o charlar sobre nada porque eso es lo que hace la gente”.
El nuevo Copilot tiene características como “Copilot Voice” que tienen como objetivo hacer que la interacción con el chatbot parezca conversacional. La herramienta también puede sugerir temas para discutir y compartir resúmenes de noticias diarias.
Una nueva interfaz y algunas funciones de voz pueden ayudar a que Copilot se sienta más personal, pero preferiría que mis amigos, humanos o digitales, no compartan información falsa y afirmen que los íconos culturales vivos están muertos. Quizás más tiempo de entrenamiento haga que nuestro amigo digital sea más objetivo.