ADDocs

AI SUMMER

ENGLISH FOLLOW

Pedimos a todos los laboratorios de IA que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4.

Los sistemas de IA con inteligencia competitiva humana pueden plantear profundos riesgos para la sociedad y la humanidad, como lo demuestra una extensa investigación[1] y reconocido por los principales laboratorios de IA.[2] Como se indica en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, a pesar de que en los últimos meses los laboratorios de IA se han visto atrapados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, puede comprender, predecir o controlar de manera confiable.

Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales, [3] y debemos preguntarnos: ¿ Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los que cumplen? ¿Deberíamos desarrollar mentes no humanas que eventualmente nos superen en número, sean más astutas, obsoletas y nos reemplacen? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse a líderes tecnológicos no electos. Los sistemas de IA potentes solo deben desarrollarse una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La reciente declaración de OpenAI con respecto a la inteligencia general artificial, afirma que ” En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y que los esfuerzos más avanzados acuerden limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos.”Estamos de acuerdo. Ese punto es ahora.

Por lo tanto, pedimos a todos los laboratorios de IA que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria.

Los laboratorios de IA y los expertos independientes deben aprovechar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean auditados y supervisados rigurosamente por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable.[4] Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes.

La investigación y el desarrollo de la IA deben reenfocarse en hacer que los sistemas potentes y de vanguardia de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.

Paralelamente, los desarrolladores de IA deben trabajar con los responsables de la formulación de políticas para acelerar drásticamente el desarrollo de sistemas robustos de gobernanza de IA. Estos deberían incluir, como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes grupos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir lo real de lo sintético y rastrear fugas de modelos; un ecosistema robusto de auditoría y certificación; responsabilidad por daños causados por la IA; ; e instituciones con recursos suficientes para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA.

La humanidad puede disfrutar de un futuro floreciente con la IA. Habiendo logrado crear poderosos sistemas de IA, ahora podemos disfrutar de un “verano de IA” en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptarse. La sociedad ha puesto en pausa otras tecnologías con efectos potencialmente catastróficos en la sociedad.[5] Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos precipitemos desprevenidos a una caída.

FIRMA LA PETICION:
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
ENGLISH

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.

AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research[1] and acknowledged by top AI labs.[2] As stated in the widely-endorsed Asilomar AI Principles, Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.

Contemporary AI systems are now becoming human-competitive at general tasks,[3] and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system’s potential effects. OpenAI’s recent statement regarding artificial general intelligence, states that “At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models.” We agree. That point is now.

Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.

AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt.[4] This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.

AI research and development should be refocused on making today’s powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.

In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause.

Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an “AI summer” in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.[5] We can do so here. Let’s enjoy a long AI summer, not rush unprepared into a fall.

SIGN PETITION

https://futureoflife.org/open-letter/pause-giant-ai-experiments/
ENGLISH

0
Liked it? Take a second to support Symbionts on Patreon!
Become a patron at Patreon!

Deja una respuesta

Mira también
Cerrar
Botón volver arriba