Hace unos días, distintas personas vinculadas al mundo de la tecnología, publicaron una carta abierta (en inglés) solicitando detener por 6 meses el trabajo que están realizando importantes laboratorios en torno a la Inteligencia Artificial, firman personas como Elon Musk, Steve Wozniak, entre otros más de 1000 firmantes, pueden acceder a la petición y la carta aquí: https://futureoflife.org/open-letter/pause-giant-ai-experiments/, sin duda continúa dejando en la palestra este apasionante y desafiante mundo de la Tecnología, en específico el de la Inteligencia Artificial.
A continuación, y con apoyo de Inteligencia Artificial, les adjunto una traducción al español de la misma:
Los sistemas de IA con inteligencia comparable a la humana pueden plantear riesgos profundos para la sociedad y la humanidad, como se ha demostrado en investigaciones extensas[1] y reconocido por los principales laboratorios de IA.[2] Como se indica en los Principios de IA de Asilomar ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debería ser planificada y administrada con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, aunque en los últimos meses los laboratorios de IA están en una carrera desenfrenada para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable.
Los sistemas de IA contemporáneos están comenzando a competir con los humanos en tareas generales,[3] y debemos preguntarnos: ¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Deberíamos automatizar todos los trabajos, incluso los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos, superarnos en inteligencia, volvernos obsoletos y reemplazarnos? ¿Deberíamos arriesgar la pérdida del control de nuestra civilización? Estas decisiones no deben ser delegadas a líderes tecnológicos no elegidos. Los sistemas de IA poderosos deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La reciente declaración de OpenAI sobre la inteligencia artificial general, afirma que “En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento de la informática utilizada para crear nuevos modelos”. Estamos de acuerdo. Ese momento es ahora.
Por lo tanto, llamamos a todos los laboratorios de IA a detener de inmediato durante al menos 6 meses el entrenamiento de sistemas de IA más poderosos que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no puede ser promulgada rápidamente, los gobiernos deben intervenir e instituir una moratoria.
Los laboratorios de IA y expertos independientes deben utilizar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos independientes externos. Estos protocolos deben garantizar que los sistemas que los cumplen sean seguros más allá de una duda razonable.[4] Esto no significa una pausa en el desarrollo de IA en general, simplemente un retroceso de la peligrosa carrera hacia modelos de caja negra cada vez más grandes e impredecibles con capacidades emergentes.
La investigación y desarrollo de IA deben ser reenfocados para hacer que los sistemas de vanguardia y potentes de hoy sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.
Paralelamente, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar dramáticamente el desarrollo de sistemas robustos de gobernanza de IA. Estos deberían incluir, como mínimo: nuevas y capaces autoridades reguladoras dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes conjuntos de capacidades computacionales; sistemas de procedencia y marcas de agua para ayudar a distinguir lo real de lo sintético y rastrear las filtraciones de modelos; un ecosistema de auditoría y certificación sólido; responsabilidad por el daño causado por la IA; financiamiento público sólido para la investigación técnica de seguridad de la IA; e instituciones bien financiadas para hacer frente a las perturbaciones económicas y políticas dramáticas (especialmente para la democracia) que causará la IA.
La humanidad puede disfrutar de un futuro próspero con la IA. Habiendo logrado crear sistemas de IA potentes, ahora podemos disfrutar de un “verano de la IA” en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y damos a la sociedad la oportunidad de adaptarse. La sociedad ha pausado otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacer lo mismo aquí. Disfrutemos de un largo verano de IA, no nos apresuremos desprevenidos hacia un otoño.
Notas y referencias
[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems “function appropriately and do not pose unreasonable safety risk”.
[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.
Eso fue la traducción de la carta abierta.
Mi opinion resumida es que, pese a que es absolutamente importante debatir, capacitar y ampliar las conversaciones en torno a todo el desarrollo de la humanidad, incluidas tecnologías disruptivas, la Inteligencia Artificial entre ellas, es que esta carta representa un llamado desesperado de quienes, finalmente, están perdiendo la carrera contra Open AI y ChatGPT.
PD: Si quieres conocer mi opinión en detalle respecto de los desafíos y oportunidades de la IA te invito a revisar mi Libro “La revolución de la Inteligencia Artificial para alcanzar los Objetivos de Desarrollo Sostenible: ¿Cómo la inteligencia artificial puede impulsar los ODS?” que podrán encontrar en Amazon en el siguiente link: https://www.amazon.com/dp/B0BYYXV5VR.
¿Qué opinas tu?
Saludos y atento a sus comentarios.
Rodrigo Carrillo
www.rodrigocarrillo.com
Post escrito con apoyo de IA.
1 Comment
La Inteligencia Artificial y su impacto en la Educación – Rodrigo Carrillo, Consultor en Innovación, Emprendimiento y Tecnología · 25/04/2023 at 4:10 pm
[…] La inteligencia artificial (IA) es una de las tecnologías más disruptivas (1, ver al final del artículo) y prometedoras del siglo XXI. Es con lo que comencé durante mi charla. Pasando por una perspectiva histórica en su desarrollo, explicando conceptos básicos. Luego mostré que para nadie debiese ser un misterio que hace años estamos haciendo uso de aplicaciones con inteligencia artificial, ya sea con asistentes de voz, recomendaciones de música, series o películas, texto predictivo al redactar un correo electrónico, por mencionar las más comunes. Pasamos por comentar hechos actuales como la Carta Abierta que pedía detener el trabajo con IA por 6 meses. […]