La mayoría de los modelos de lenguaje grandes para chatbots como GPT-4 de OpenAI están precargados con cantidades masivas de información.
No obstante, la “Prompt engineering” permite que la IA generativa se adapte para una industria específica o incluso para el uso organizacional.
Por: Lucas Mearian | Original de IDGN
Una de las razones por las que los chatbots basados en inteligencia artificial han tomado al mundo por sorpresa en los últimos meses es porque pueden generar o perfeccionar texto para una variedad de propósitos. Ya sea para crear una campaña publicitaria o escribir un currículum.
Estos chatbots funcionan con algoritmos de modelo de lenguaje grande (LLM) que pueden imitar la inteligencia humana y crear contenido textual, así como audio, video, imágenes y código informático.
Los LLM son un tipo de inteligencia artificial entrenada en un tesoro masivo de:
- Artículos
- Libros
- Otros recursos basados en Internet
- Así como distintos aportes
Todo ello para producir respuestas similares a las humanas en las entradas de lenguaje natural.
Un número creciente de empresas de tecnología han presentado herramientas generativas de IA basadas en LLM para el uso empresarial de automatizar tareas en aplicaciones.
Por ejemplo, Microsoft:
- Lanzó la semana pasada a un número limitado de usuarios un chatbot basado en ChatGPT de OpenAI
- Está integrado en Microsoft 365
- Y puede automatizar las funciones de aplicaciones CRM y ERP.
Los hijos del ChatGPT
El nuevo Microsoft 365 Copilot se puede usar en Word para crear un primer borrador de un documento, lo que podría ahorrar horas de tiempo de procura, escritura y edición.
Salesforce también anunció planes para lanzar un chatbot basado en GPT para su uso con su plataforma CRM.
La mayoría de los LLM – como ChatGPT-4 de OpenAI – están preentrenados como motores de predicción de próxima palabra o contenido.
Así es como la mayoría de las empresas los adquieren: “listos para usar”, por así decirlo.
Pero hay que destacar que los chatbots basados en LLM han producido ya su parte de errores.
Mientras, los LLM previamente entrenados funcionan relativamente bien para alimentar contenido principalmente preciso y convincente que, como mínimo, se puede usar como punto de partida.
Muchas industrias, sin embargo, requieren algoritmos LLM más personalizados.
Nos referimos, por supuesto, a aquellas industrias está aque precisan que el chatbots entienda su jerga y produzca contenido específico para sus usuarios.
Los LLM para la industria de la salud, por ejemplo, podrían necesitar:
- Procesar e interpretar registros electrónicos de salud (EHR)
- Sugerir tratamientos
- O crear un resumen de atención médica del paciente
- Basado en notas del médico o grabaciones de voz.
Evolución de los chatbots
Un LLM sintonizado con la industria de servicios financieros puede resumir las llamadas de ganancias, crear transcripciones de reuniones y realizar análisis de fraude para proteger a los consumidores.
En diversas industrias, garantizar un alto grado de precisión de respuesta puede ser primordial.
Se puede acceder a la mayoría de los LLM a través de una interfaz de programación de aplicaciones (API) que permite al usuario crear parámetros o ajustes sobre cómo responde el LLM.
Una pregunta o solicitud enviada a un chatbot se denomina prompt, en el sentido de que el usuario solicita una respuesta.
Las indicaciones pueden ser preguntas en lenguaje natural, fragmentos de código o comandos.
Pero, para que el LMM haga su trabajo con precisión, las indicaciones deben estar en el punto.
Y esa necesidad ha dado lugar a una nueva habilidad: la Prompt engineering o ingeniería de solicitudes o precisión.
Explicación de la Prompt engineering
La ingeniería de solicitudes es el proceso de elaboración y optimización de requerimientos de texto para modelos de lenguaje grandes, de manera tal de lograr los resultados deseados.
Marshall Choy, vicepresidente senior de productos de SambaNova Systems, una startup de Silicon Valley que fabrica semiconductores para inteligencia artificial (IA) describe así esta especialidad:
“Esta ayuda a los LLM para una iteración rápida en la exploración y creación de prototipos de productos, ya que los adapta para alinearse mejor con la definición de la tarea, de forma rápida y sencilla”, dijo.
Tal vez igual de importante para los usuarios, la prompt engineering está lista para convertirse en una habilidad vital para los profesionales de negocios y de TI.
Así lo afirma Eno Reyes, un ingeniero de aprendizaje automático con Hugging Face, una plataforma impulsada por la comunidad que crea y aloja LLM.
“Muchas personas que conozco en software, TI y consultoría usan ingeniería rápida o Prompt engineering todo el tiempo para su trabajo personal”, dijo Reyes.
Considera el especialista qué, a medida que los LLM se integran cada vez más en varias industrias “su potencial para mejorar la productividad es inmenso”.
Incrementar los beneficios de uso
Al emplear de manera efectiva la ingeniería rápida, los usuarios comerciales pueden optimizar los LLM para realizar sus tareas específicas de manera más eficiente y precisa.
Estas, específico Reyes, van desde la atención al cliente hasta la generación de contenido y el análisis de datos.
El LLM más conocido en este momento – el GPT-3 de OpenAI – es la base del popular chatbot ChatGPT.
El GPT-3 LLM funciona en un modelo de 175.000 millones de parámetros, que puede generar texto y código de computadora con breves indicaciones escritas.
Se estima que la última versión de OpenAI, GPT-4, tiene hasta 280.000 millones de parámetros. Esto hace que sea mucho más probable que produzca respuestas precisas.
Junto con GPT LLM de OpenAI, las plataformas de IA generativa populares incluyen modelos abiertos como:
- BLOOM y XLM-RoBERTa de Hugging Face
- NeMO LLM de Nvidia
- XLNet
- Co: here
- Y GLM-130B
Como prompt engineering es aun una disciplina incipiente y emergente, las empresas confían en folletos y guías rápidas como una forma de garantizar respuestas óptimas de sus aplicaciones de IA.
Chatbots: ¿nuevo “océano azul” de ingeniería?
Aunque la disciplina aun es nueva y emergente, la popularidad creciente de lis chatbots permite que ya la demanda de estos “recursos” de señales de fortaleza.
Incluso, hay mercados emergentes para avisos, como los 100 mejores anuncios para ChatGPT.
“La gente está vendiendo hasta sugerencias rápidas”, dijo Arun Chandrasekaran, un distinguido vicepresidente analista de Gartner Research.
Agregó que la reciente avalancha de atención sobre la IA generativa ha puesto de relieve la necesidad de una mejor ingeniería rápida.
“Es un dominio relativamente nuevo. Las aplicaciones generativas de IA a menudo dependen de modelos gigantes autosupervisados y, por lo tanto, obtener respuestas óptimas de ellos requiere más conocimientos, ensayos y esfuerzo adicional”.
El VP de Gartner expresó su seguridad de que, con la creciente madurez, se podrá ver una mejor orientación.
“También mejores prácticas de los creadores de modelos de IA sobre formas efectivas de obtener lo mejor de los modelos y aplicaciones de IA”, concluyó.