No. La IA generativa no va a parar aunque se lo pidamos por favor.
Considere el alcance de las capacidades emergentes de esta tecnología antes de trazar lo que es mejor para la organización.
Por Nicolás D. Evans | Original de IDGN
Si bien hay una carta abierta que pide a todos los laboratorios de IA que detengan de inmediato el entrenamiento de los sistemas de IA más potentes que GPT-4 durante seis meses, la realidad es que el genio ya salió de la botella.
Aquí hay formas de obtener una mejor comprensión de lo que estos sistemas son capaces de hacer y utilizarlos para construir una política de uso corporativo efectiva para su organización.
La IA generativa es la forma esta tecnologia que acapara los titulares y utiliza algoritmos no supervisados o semisupervisados para crear contenido nuevo a partir de materiales existentes como texto, audio, video, imágenes y código.
Los casos de uso de esta rama de la IA se están disparando y las organizaciones la están utilizando para:
- Brindar un mejor servicio a los clientes
- Aprovechar más los datos empresariales existentes
- Y mejorar la eficiencia operativa, entre muchos otros usos.
Pero al igual que otras tecnologías emergentes, no viene sin riesgos y desafíos significativos.
Por favor, lea la letra pequeña
Según una encuesta reciente de Salesforce a líderes sénior de TI:
- 79 % de los encuestados cree que la tecnología tiene el potencial de ser un riesgo para la seguridad
- 73 % está preocupado de que pueda estar sesgado
- 59 % cree que sus resultados son inexactos.
Además, se deben considerar las preocupaciones legales, especialmente si el contenido generativo creado por IA de uso externo es fáctico y preciso, tiene derechos de autor o proviene de un competidor.
Como ejemplo y verificación de la realidad, el mismo ChatGPT nos dice que:
“Mis respuestas se generan en base a patrones y asociaciones aprendidas de un gran conjunto de datos de texto, y no tengo la capacidad de verificar la precisión o credibilidad de cada fuente a la que se hace referencia en el conjunto de datos”.
Los riesgos legales por sí solos son extensos y, según Tech Policy Press, una organización sin fines de lucro, incluyen riesgos que giran en torno a:
- Contratos
- Ciberseguridad
- Privacidad de datos
- Prácticas comerciales engañosas
- Discriminación
- Desinformación
- Ética
- Propiedad intelectual
- Y Validación
Crecimiento “salvaje” de la IA generativa
De hecho, es probable que su organización tenga una gran cantidad de empleados que actualmente experimentan con IA generativa.
A medida que esta actividad pasa de la experimentación a la implementación en la vida real, es importante ser proactivo antes de que ocurran consecuencias no deseadas.
“Cuando el código generado por IA funciona, es sublime. Pero no siempre funciona, así que no olvides probar el resultado de ChatGPT antes de pegarlo en algún lugar importante”, dice Cassie Kozyrkov, directora científica de decisiones de Google.
Una política de uso corporativo y la capacitación asociada pueden ayudar a educar a los empleados tanto sobre algunos de los riesgos como los peligros de la tecnología.
Además, permite proporcionar reglas y recomendaciones sobre cómo aprovechar al máximo la tecnología. Por lo tanto, el mayor valor comercial sin poner el organización en riesgo.
Con esto en mente, aquí hay seis mejores prácticas para desarrollar una política de uso corporativo para la IA generativa.
1.- Determine el alcance de su política
El primer paso para diseñar su política de uso corporativo es considerar el alcance.
Por ejemplo, ¿cubrirá esto todas las formas de IA o solo la IA generativa?
Centrarse en la IA generativa puede ser un enfoque útil, ya que aborda grandes modelos de lenguaje (LLM), incluido ChatGPT, sin tener que hervir el océano en todo el universo de la IA.
Cómo establecer la gobernanza de la IA para un tema más amplio es otra cuestión y hay cientos de recursos disponibles en línea.
2.- Involucre a todas las partes interesadas relevantes en su organización
Esto puede incluir recursos humanos, legales, ventas, marketing, desarrollo comercial, operaciones y TI.
Cada grupo puede ver diferentes casos de uso y diferentes ramificaciones de cómo se puede usar o mal usar el contenido.
Involucrar a los grupos de TI e innovación puede ayudar a demostrar que la política no es solo una medida drástica desde la perspectiva de la gestión de riesgos, sino un conjunto equilibrado de recomendaciones que buscan maximizar el uso productivo y el beneficio comercial y, al mismo tiempo, administrar el riesgo comercial.
3.- Considere cómo se usa la IA generativa ahora y cómo se puede usar en el futuro
Trabajando con todas las partes interesadas, detalle todos sus casos de uso internos y externos que se están aplicando hoy y los previstos para el futuro.
Cada uno de estos puede ayudar a informar el desarrollo de políticas y garantizar que esté cubriendo el frente costero.
Por ejemplo, si ya ve equipos de propuestas, incluidos contratistas, que experimentan con la redacción de contenidos o equipos de productos que experimentan con copias creativas de marketing, entonces sabe que podría haber un riesgo de propiedad intelectual posterior debido a que los productos pueden infringir los derechos de propiedad intelectual de otros.
4.- Estar en un estado de constante desarrollo
Al desarrollar la política de uso corporativo, es importante pensar de manera holística y cubrir la información que ingresa al sistema, cómo se usa el sistema de IA generativa y luego cómo se utiliza posteriormente la información que sale del sistema.
Concéntrese en los casos de uso internos y externos y todo lo demás.
Al exigir que todo el contenido generado por IA esté etiquetado como tal para garantizar la transparencia y evitar la confusión con el contenido generado por humanos – incluso para uso interno – puede ayudar a evitar la reutilización accidental de ese contenido para uso externo.
O actuar sobre la información pensando que es fáctico y exacto sin verificación.
5.- Compartir ampliamente en toda la organización
Dado que las políticas a menudo se olvidan rápidamente o ni siquiera se leen, es importante acompañar la política con capacitación y educación adecuadas.
Esto puede incluir el desarrollo de videos de capacitación y la organización de sesiones en vivo.
Por ejemplo, una sesión de preguntas y respuestas en vivo con representantes de sus equipos de TI, innovación, legal, marketing y propuestas, u otros grupos adecuados, puede ayudar a educar a los empleados sobre las oportunidades y los desafíos que se avecinan.
Asegúrese de dar muchos ejemplos para ayudar a que sea real para la audiencia, como cuando surgen casos legales importantes y se pueden citar como ejemplos.
6.- Conviértalo en un documento vivo
Al igual que con todos los documentos de políticas, querrá convertirlo en un documento vivo y actualizarlo con la cadencia adecuada según lo dicten los casos de uso emergentes, las condiciones del mercado externo y los desarrollos.
Hacer que todas las partes interesadas “firmen” la política o incorporarla en un manual de políticas existente firmado por su director ejecutivo demostrará que cuenta con su aprobación y es importante para la organización.
Su política debe ser solo una de las muchas partes de su enfoque de gobernanza más amplio, ya sea para la IA generativa, o incluso para la IA o la gobernanza tecnológica en general.
Esto no pretende ser un consejo legal, y sus departamentos legal y de recursos humanos deben desempeñar un papel de liderazgo en la aprobación y difusión de la política.
Pero es de esperar que proporcione algunos consejos para su consideración.
Al igual que las políticas corporativas de redes sociales de hace una década o más, dedicar tiempo a esto ahora ayudará a mitigar las sorpresas y los riesgos en evolución en los próximos años.