Regulación de sistemas complejos y consecuencias sobre la innovación


Una de las noticias relevantes de la semana pasada ha sido la publicación de una carta abierta que hace un llamamiento a todos los laboratorios de IA (Inteligencia Artificial) para que suspendan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4.

La petición fue organizada por el organismo Future of Life Institute y la misiva ha sido firmada por un importante grupo de referentes internacionales en tecnología como Elon Musk (Tesla, Space X, Twitter) o Steve Wozniak (Apple), entre otros.

Por su parte, Andrew Ng, docente e investigador de la Universidad de Stanford y líder mundialmente reconocido en IA, respondía a la carta a través de sus redes sociales.

Traducción al español:

"El llamado a una moratoria de 6 meses para hacer que la IA avance más allá de GPT-4 es una idea terrible.

Estoy viendo muchas aplicaciones nuevas en educación, salud, alimentos, ... Eso ayudará a muchas personas. Mejorar GPT-4 ayudará. Equilibremos el enorme valor que la IA está creando frente a los riesgos realistas.

No hay una forma realista de implementar una moratoria y evitar que todos los equipos amplíen los LLM, a menos que los gobiernos intervengan. Hacer que los gobiernos detengan las tecnologías emergentes que no entienden es anticompetitivo, sienta un precedente terrible y es una política de innovación horrible.

La IA responsable es importante, y la IA tiene riesgos. La narrativa de la prensa popular de que las compañías de IA se están volviendo locas enviando código inseguro no es cierta. La gran mayoría (lamentablemente, no todos) de los equipos de IA se toman en serio la IA responsable y la seguridad. Invirtamos más en seguridad mientras avanzamos en la tecnología, en lugar de sofocar el progreso.

Una moratoria de 6 meses no es una propuesta práctica. Para avanzar en la seguridad de la IA, las regulaciones en torno a la transparencia y la auditoría serían más prácticas y marcarían una mayor diferencia."

En este sentido, justo hace unos meses les recomendaba un artículo que discutía el caso de una nueva regulación y los efectos negativos sobre la innovación y creo que también tiene relación con la denominada "ley de las consecuencias imprevistas" que es lo que ocurre cuando un sistema simple intenta regular un sistema complejo. Por ejemplo, las leyes del tipo de "hoy no circula" las cuales buscan reducir el tráfico o la contaminación restringiendo quién podía conducir cada día basándose en los números de las matrículas, como resultado condujo a la gente a eludir la política comprando más coches.

De momento es una carta abierta, pero tarde o temprano entrará a discusión la regulación sobre IA, y es bueno tener en cuenta las evidencias pasadas y sus efectos colaterales. Mientras tanto, los tomadores de decisiones y los líderes tecnológicos, necesitan guías que les permitan empezar a emitir serias advertencias de salud digital para acompañar a la tecnología.

Leslie Willcocks, profesor emérito del Departamento de Administración de la London School of Economics, he creado lo que llamó una Prueba de Imperfección de la Inteligencia Artificial para orientar el uso práctico y ético de estas tecnologías. Esta prueba consta de nueve puntos de referencia: Débil, Opaco, Codicioso, Poco profundo, Hackeable, Amoral, Sesgado, Invasivo, Falsificable.


El autor concluye, que colectivamente nuestras respuestas a la IA muestran una despreocupación ética y una falta de responsabilidad social que nos ponen a todos en peligro. Una vez más, los controles profesionales, sociales, jurídicos e institucionales van casi una década por detrás de donde nos lleva la aceleración de las tecnologías. Por lo que destaca que es hora, de empezar a emitir serias advertencias de salud digital para acompañar a estas máquinas.


Hasta aquí el post del día de hoy y recuerda que puedes seguirme en Twitter y mantenerte informado de lo último de ciencia, tecnología e innovación en el mundo de la economía y las finanzas.

¡Hasta la próxima!

Comentarios

Entradas populares de este blog

¿Qué significan los números en el triángulo de reciclaje de los plásticos?

Metallica versus Megadeth ¿quien es mejor? la estadística nos da la respuesta

Los programas más usados por economistas