La IA generativa no revolucionará las búsquedas, todavía

La IA generativa tiene el potencial de cambiar drásticamente lo que los usuarios esperan de las búsquedas, y empresas como Microsoft y Google están haciendo grandes apuestas por lo que podría ofrecer. Pero a pesar del revuelo en torno a ChatGPT (y a la IA generativa en general), hay importantes desafíos prácticos, técnicos y legales que superar antes de que estas herramientas puedan alcanzar la escala, la solidez y la fiabilidad de un motor de búsqueda establecido como Google. Estos incluyen los problemas de mantener actualizados los modelos lingüísticos de gran tamaño, las cuestiones relacionadas con el abastecimiento y las convincentes invenciones de la IA. Dicho esto, estas herramientas podrían ser ideales para formas de búsqueda más específicas y especializadas.

••• ChatGPT ha creado un frenesí. Desde la publicación del modelo de lenguaje grande (LLM) de OpenAI a finales de noviembre, se ha especulado desenfrenadamente sobre cómo las IA generativas —de las que ChatGPT es solo una— podrían cambiar todo lo que sabemos sobre el conocimiento, la investigación y la creación de contenido. O remodelar la fuerza laboral y las habilidades que los empleados necesitan para prosperar. ¡O incluso cambiar industrias enteras! Un área destaca como uno de los principales premios de la carrera de la IA generativa: la búsqueda. La IA generativa tiene el potencial de cambiar drásticamente lo que los usuarios esperan de las búsquedas. Google, el ganador desde hace mucho tiempo de las búsquedas en Internet, parece que de repente tiene un rival en Microsoft, que recientemente invirtió[10 000 millones de dólares](https://www.cnbc.com/2023/01/10/microsoft-to-invest-10-billion-in-chatgpt-creator-openai-report-says.html) en el desarrollador de ChatGPT, OpenAI, y anunció sus planes de incorporar la herramienta a una gama de productos de Microsoft,[incluido su motor de búsqueda, Bing](https://blogs.microsoft.com/blog/2023/02/07/reinventing-search-with-a-new-ai-powered-microsoft-bing-and-edge-your-copilot-for-the-web/). Mientras tanto, Google lanza su propia herramienta de IA, Bard, y el gigante tecnológico chino Baidu se prepara para lanzar un [Competidor de ChatGPT](https://www.fastcompany.com/90842018/china-ai-baidu-chatbot-chatgpt-generative-ai). También se están invirtiendo millones de dólares en empresas emergentes de IA generativa. Pero a pesar del revuelo en torno a ChatGPT (y a la IA generativa en general), hay importantes desafíos prácticos, técnicos y legales que superar antes de que estas herramientas puedan alcanzar la escala, la solidez y la fiabilidad de un motor de búsqueda establecido como Google. ## Noticias de ayer Los motores de búsqueda se generalizaron a principios de la década de 1990, pero su enfoque principal se ha mantenido sin cambios desde entonces: ordenar los sitios web indexados de la manera que sea más relevante para el usuario. La era de la Búsqueda 1.0 obligaba a los usuarios a introducir una palabra clave o una combinación de palabras clave para consultar en el motor. La búsqueda 2.0 llegó a finales de la década de 2000 con la introducción de la búsqueda semántica, que permitía a los usuarios escribir frases naturales como si estuvieran interactuando con un humano. Google dominó las búsquedas desde su lanzamiento gracias a tres factores clave: su interfaz de usuario sencilla y ordenada; la revolucionaria[Algoritmo PageRank](https://en.wikipedia.org/wiki/PageRank), que arrojó resultados relevantes; y la capacidad de Google de escalar sin problemas con un volumen cada vez mayor. La Búsqueda de Google ha sido la herramienta perfecta para abordar un caso de uso bien definido: encontrar sitios web que tengan la información que busca. Pero parece que ahora hay un nuevo caso de uso que va en aumento. Como también reconoció Google en su anuncio de[Bardo](https://blog.google/technology/ai/bard-google-ai-search-updates/), los usuarios ahora buscan algo más que una lista de sitios web relevantes para una consulta: quieren «información y conocimientos más profundos». Y eso es exactamente lo que hace Search 3.0: ofrece respuestas en lugar de sitios web. Mientras que Google ha sido el colega que nos señala un libro de la biblioteca que puede responder a nuestra pregunta, ChatGPT es el colega que ya ha leído todos los libros de la biblioteca y puede responder a nuestra pregunta. En teoría, de todos modos. Pero aquí también está el primer problema de ChatGPT: en su forma actual, ChatGPT no es un motor de búsqueda, principalmente porque no tiene acceso a la información en tiempo real como lo tiene un motor de búsqueda que rastrea la web. ChatGPT se entrenó en un enorme conjunto de datos con un límite de octubre de 2021. Este proceso de formación le dio a ChatGPT una cantidad impresionante de conocimientos estáticos, así como la capacidad de entender y producir el lenguaje humano. Sin embargo, no «sabe» nada más allá de eso. En lo que respecta a ChatGPT, Rusia no ha invadido Ucrania, FTX es una bolsa de criptomonedas exitosa, la reina Isabel está viva y Covid no ha llegado a la fase Omicron. Probablemente por eso, en diciembre de 2022, Sam Altman, CEO de OpenAI[dijo](https://twitter.com/sama/status/1601731295792414720?s=20&t=lNMI-WV7_TjIXOqWBNqSxA), «Es un error confiar en [ChatGPT] para algo importante ahora mismo». ¿Cambiará esto en un futuro próximo? Eso plantea el segundo gran problema: por ahora, es extremadamente difícil volver a capacitar continuamente a un LLM a medida que la información en Internet evoluciona. El desafío más obvio es la enorme cantidad de potencia de procesamiento necesaria para capacitar continuamente a un LLM y el coste financiero asociado a estos recursos. Google cubre el coste de las búsquedas mediante la venta de anuncios, lo que le permite ofrecer el servicio de forma gratuita. El mayor coste energético de los LLM dificulta su logro, especialmente si el objetivo es procesar las consultas al ritmo que lo hace Google, que se estima en decenas de miles por segundo (o unos pocos miles de millones por día). Una posible solución podría ser entrenar el modelo con menos frecuencia y evitar aplicarlo a las consultas de búsqueda que cubren temas que cambian rápidamente. Pero incluso si las empresas consiguen superar este desafío técnico y financiero, sigue existiendo el problema de la información real que entregarán: ¿qué van a aprender exactamente herramientas como ChatGPT y de quién? ## Considere la fuente Los chatbots como ChatGPT son como espejos ante la sociedad: reflejan lo que ven. Si los deja llevar para que se entrenen con datos sin filtrar de Internet, podrían escupir vitriolo. (Recuerde lo que pasó con[Bandeja](https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist)?) Por eso los LLM se forman con conjuntos de datos cuidadosamente seleccionados que el desarrollador considere adecuados. Sin embargo, este nivel de conservación no garantiza que todo el contenido de conjuntos de datos en línea tan masivos sea correcto desde el punto de vista fáctico y esté libre de sesgos. De hecho, un[estudio](https://dl.acm.org/doi/pdf/10.1145/3442188.3445922) de Emily Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell (acreditada como[«Shmargaret Shmitchell»](https://www.lrb.co.uk/blog/2021/february/stochastic-parrots)) descubrió que «los grandes conjuntos de datos basados en textos de Internet representan en exceso los puntos de vista hegemónicos y codifican sesgos que podrían dañar a las poblaciones marginadas». Por ejemplo, una fuente clave de los datos de formación de ChatGPT es Reddit, y los autores citan un estudio de Pew Research que muestra que el 67% de los usuarios de Reddit en los Estados Unidos son hombres y el 64% tienen entre 18 y 29 años. Estas disparidades en la participación en Internet según factores demográficos como el género, la edad, la raza, la nacionalidad, el nivel socioeconómico y la afiliación política significan que la IA reflejará las opiniones del grupo más dominante en el contenido comisariado. ChatGPT ya ha sido acusado de ser»[despertó](https://www.usatoday.com/story/tech/2023/02/09/woke-chatgpt-conservatives-bias/11215353002/)» y tener un»[sesgo liberal](https://www.newsweek.com/real-danger-chatgpt-not-its-liberal-bias-its-psychological-impact-young-opinion-1780241).» Al mismo tiempo, el chatbot también ha entregado [perfiles raciales](https://theintercept.com/2022/12/08/openai-chatgpt-ai-bias-ethics/) recomendaciones, y un profesor de la Universidad de California en Berkley hizo que la IA[escribir código](https://www.bloomberg.com/news/newsletters/2022-12-08/chatgpt-open-ai-s-chatbot-is-spitting-out-biased-sexist-results) que dice que solo los hombres blancos o asiáticos serían buenos científicos. Desde entonces, OpenAI ha colocado barandas para evitar estos incidentes, pero el problema subyacente persiste. El sesgo también es un problema con los motores de búsqueda tradicionales, ya que pueden llevar a los usuarios a sitios web con contenido sesgado, racista, incorrecto o inapropiado por algún motivo. Pero como Google es simplemente una guía que apunta a los usuarios hacia las fuentes, tiene menos responsabilidad por su contenido. Cuando se les presenta el contenido y la información contextual (por ejemplo, los sesgos políticos conocidos de la fuente), los usuarios aplican su juicio para distinguir los hechos de la ficción, la opinión de la verdad objetiva y deciden qué información quieren utilizar. ChatGPT elimina esta medida basada en juicios, lo que la hace directamente responsable de los resultados sesgados y racistas que pueda ofrecer. Esto plantea la cuestión de la transparencia: los usuarios no tienen ni idea de las fuentes que hay detrás de una respuesta con una herramienta como ChatGPT y las IA no las proporcionan cuando se les pregunta. Esto crea una situación peligrosa en la que el usuario puede tomar una máquina sesgada como una herramienta objetiva que debe ser correcta. OpenAI está trabajando para abordar este desafío con[WebGPT](https://openai.com/blog/webgpt/), una versión de la herramienta de IA que está entrenada para citar sus fuentes, pero su eficacia está por verse. La opacidad en torno al abastecimiento puede provocar otro problema: académico[estudios](https://arxiv.org/pdf/2301.13188.pdf) y pruebas anecdóticas han demostrado que las aplicaciones de IA generativa pueden plagiar el contenido de sus datos de entrenamiento; en otras palabras, el trabajo de otra persona, que no dio su consentimiento a que su obra protegida por derechos de autor se incluyera en los datos de entrenamiento, no recibió compensación por el uso de la obra y no recibió ningún crédito. (El[Neoyorquino](https://www.newyorker.com/culture/infinite-scroll/is-ai-art-stealing-from-artists) describió recientemente esto como las «tres C» en un artículo sobre una demanda colectiva contra las empresas de IA generativa Midjourney, Stable Diffusion y Dream Up.)[Demandas](https://www.theverge.com/2022/11/8/23446821/microsoft-openai-github-copilot-class-action-lawsuit-ai-copyright-violation-training-data) contra Microsoft, OpenAI, GitHub y otros también están surgiendo, y esto parece ser el comienzo de una nueva ola de batallas legales y éticas. El plagio es un problema, pero también hay veces en las que los LLM se inventan cosas. En un error muy público, Bard de Google, por ejemplo, proporcionó información fáctica incorrecta sobre el telescopio James Webb durante un[demostración](https://www.cnn.com/2023/02/08/tech/google-ai-bard-demo-error/index.html). Del mismo modo, cuando le preguntaron a ChatGPT por el artículo de investigación más citado en economía, [regresó con una cita de investigación completamente inventada](https://twitter.com/dsmerdon/status/1618816703923912704). Debido a estos problemas, ChatGPT y los LLM genéricos tienen que superar grandes desafíos para poder utilizarlos en cualquier esfuerzo serio de encontrar información o producir contenido, especialmente en las solicitudes académicas y corporativas, donde incluso el más mínimo paso en falso podría tener implicaciones profesionales catastróficas. ** ** ## Pasar a la vertical Es probable que los LLM mejoren ciertos aspectos de los motores de búsqueda tradicionales, pero actualmente no parecen capaces de destronar las búsquedas de Google. Sin embargo, podrían desempeñar un papel más disruptivo y revolucionario a la hora de cambiar otros tipos de búsquedas. Lo que es más probable en la era de la Búsqueda 3.0 es el auge de los LLM seleccionados a propósito y de forma transparente y entrenados deliberadamente para la búsqueda vertical, que son motores de búsqueda especializados y por temas específicos. La búsqueda vertical es un caso de uso sólido para los LLM por varias razones. En primer lugar, se centran en campos y casos de uso específicos: conocimientos limitados pero profundos. Esto facilita la formación de los LLM en conjuntos de datos altamente seleccionados, que podrían incluir una documentación exhaustiva que describa las fuentes y los detalles técnicos del modelo. También facilita que estos conjuntos de datos se rijan por las leyes, normas y reglamentos correspondientes de derechos de autor, propiedad intelectual y privacidad. Los modelos lingüísticos más pequeños y específicos también se traducen en un menor coste computacional, lo que facilita su reentrenamiento con más frecuencia. Por último, estos LLM estarían sujetos a pruebas y auditorías periódicas por parte de expertos externos, de forma similar a como los modelos analíticos que se utilizan en las instituciones financieras reguladas están sujetos a rigurosos requisitos de prueba. En campos en los que el conocimiento experto basado en hechos y datos históricos es una parte importante del trabajo, los LLM verticales pueden proporcionar una nueva generación de herramientas de productividad que ayudan a las personas de formas completamente nuevas. Imagine una versión de ChatGPT formada en revistas y libros de texto médicos publicados y revisados por pares e integrada en Microsoft Office como asistente de investigación para profesionales de la medicina. O una versión que se base en décadas de datos financieros y artículos de las principales bases de datos y revistas financieras que los analistas bancarios utilizan para investigar. Otro ejemplo es entrenar a los LLM para que escriban o depure código y respondan a las preguntas de los desarrolladores. Las empresas y los emprendedores pueden hacerse cinco preguntas a la hora de evaluar si hay un argumento de uso sólido para aplicar los LLM a una aplicación de búsqueda vertical: 1. ¿La tarea o el proceso requieren tradicionalmente una amplia investigación o una profunda experiencia en la materia? 2. ¿El resultado de la tarea es información, información o conocimiento sintetizados que permiten al usuario tomar medidas o tomar una decisión? 3. ¿Existen suficientes datos históricos, técnicos o fácticos para que la IA se convierta en una experta en el área de la búsqueda vertical? 4. ¿Se puede entrenar el LLM con nueva información con la frecuencia adecuada para que proporcione información actualizada? 5. ¿Es legal y ético que la IA aprenda de los datos de entrenamiento, replique y perpetúe los puntos de vista, las suposiciones y la información incluidos en los datos de entrenamiento? Responder con confianza a las preguntas anteriores requerirá una perspectiva multidisciplinaria que reúna las perspectivas empresarial, técnica, legal, financiera y ética. Pero si la respuesta es «sí» a las cinco preguntas, es probable que un LLM vertical tenga un buen argumento de uso. ** ** ## Dejar que el polvo se asiente La tecnología detrás de ChatGPT es impresionante, pero no exclusiva, y pronto será fácilmente replicable y mercantilizada. Con el tiempo, el enamoramiento del público por las encantadoras respuestas de ChatGPT se desvanecerá y las realidades prácticas y las limitaciones de la tecnología comenzarán a hacerse sentir. Como resultado, los inversores y los usuarios deberían prestar atención a las empresas que se centran en abordar los desafíos técnicos, legales y éticos mencionados anteriormente, ya que esos son los frentes en los que se diferenciará de los productos y, en última instancia, se ganarán las batallas de la IA