Los espertos piden valorar los riesgos de las IAs generativas en tres áreas específicas: armas autónomas, vigilancia masiva y manipulación de la información.
El impacto de las IAs generativas como ChatGPT, y sobre todo la velocidad de su evolución, ha levantado la voz de alarma de más de mil expertos y científicos.
Una carta abierta de científicos y expertos en inteligencia artificial insta a una “pausa” en el desarrollo de las IAs generativas que podrían resultar peligrosas en tres áreas específicas: armas autónomas, vigilancia masiva y manipulación de la información. La carta reconoce el potencial positivo de la IA, pero llama a abordar adecuadamente los riesgos y establecer regulaciones adecuadas para su uso.
Tal y como lo informó The Washington Post, el CEO de Twitter, Elon Musk, el veterano científico informático de inteligencia artificial, Yoshua Bengio y Emad Mostaque, CEO de la creciente startup Stability AI, firmaron la carta, junto con alrededor de 1,000 miembros del mundo empresarial, académico y tecnológico, aunque la lista no fue verificada de manera independiente.
Áreas de potencial riesgo
La carta señala específicamente tres áreas donde se necesita una pausa en el desarrollo de las IAs generativas: armas autónomas, vigilancia masiva y manipulación de la información.
En cada una de estas áreas, la IA tiene el potencial de ser utilizada para causar daño significativo.
- En el caso de las armas autónomas, la IA podría permitir a los sistemas de armas tomar decisiones de manera autónoma sin la supervisión humana adecuada, lo que podría llevar a decisiones equivocadas y a la pérdida de vidas humanas.
- La vigilancia masiva, por otro lado, podría permitir a los gobiernos o a las empresas recopilar datos personales sin el consentimiento o conocimiento de las personas, lo que podría violar la privacidad y las libertades civiles.
- La manipulación de la información es otra área donde la IA tiene el potencial de ser peligrosa. La IA podría ser utilizada para crear deepfakes y otras formas de información falsa que pueden ser utilizadas para manipular la opinión pública o dañar la reputación de personas o empresas.
El poder de la inteligencia artificial es innegable, pero también es importante reconocer sus limitaciones y peligros potenciales. En una carta abierta a la comunidad de la inteligencia artificial, un grupo de expertos en el campo instó a una “pausa” en el desarrollo de tecnologías de IA peligrosas que podrían ser utilizadas para dañar a las personas o a la sociedad en general.
La carta no sugiere una prohibición total de la IA en estas áreas, sino más bien una “pausa” en su desarrollo hasta que se puedan abordar adecuadamente los riesgos y se puedan establecer regulaciones adecuadas para su uso.
Esta pausa en el desarrollo de una IA peligrosa no significa una pausa en el desarrollo de la IA en general. De hecho, la carta reconoce que la IA tiene el potencial de ser una fuerza positiva en el mundo, si se desarrolla y utiliza de manera responsable.
La carta también reconoce la necesidad de involucrar a una amplia gama de partes interesadas en la discusión sobre el desarrollo y uso de la IA. Los expertos en IA no pueden abordar estos problemas solos; se necesitan reguladores, políticos, líderes empresariales y la sociedad en general para participar en el debate.
Esta carta es un llamado importante para que la comunidad de la IA tome en cuenta las implicaciones éticas y de seguridad de la tecnología que están desarrollando. La pausa en el desarrollo de la IA peligrosa es una oportunidad para que la industria, los reguladores y la sociedad en general trabajen juntos para asegurar que la IA se desarrolle de manera responsable y beneficie a la sociedad en general.
Esta pausa que solicitan los expertos no significa una pausa en el desarrollo de la IA en general, sino una oportunidad para abordar los riesgos y establecer regulaciones adecuadas para su uso. La carta es un llamado importante para que la industria, los reguladores y la sociedad en general trabajen juntos para asegurar que la IA se desarrolle de manera responsable y beneficie a la sociedad.