Eric Drexler revisita su informe «Reframing Superintelligence» a la luz de los avances en modelos de lenguaje como GPT. Argumenta que el modelo de ‘Servicios Integrales de IA’ (CAIS), donde la inteligencia general surge de la coordinación de servicios especializados, sigue siendo relevante. Considera que este enfoque, a diferencia de centrarse en agentes superinteligentes unitarios, ofrece un camino más seguro y transparente hacia la IA avanzada. Aunque reconoce los riesgos inherentes, Drexler enfatiza que los mayores peligros provienen del uso malintencionado de la IA por parte de humanos.
¿Qué es el modelo de Servicios Integrales de IA (CAIS) y cómo se diferencia de un agente superinteligente unitario?
El modelo CAIS propone la inteligencia general como una propiedad de sistemas flexibles de servicios, donde agentes enfocados en tareas son componentes. Se diferencia de un agente superinteligente unitario al enfatizar la composición de sistemas de IA y la prestación de servicios alineados con objetivos humanos, mitigando riesgos asociados con agentes autónomos y potencialmente peligrosos. Este modelo expande la ontología de la superinteligencia para incluir sistemas más accesibles, transparentes y manejables.
¿Cuáles son algunas aplicaciones directas de la IA al desarrollo de la IA, especialmente con el uso de LLMs?
Las aplicaciones directas de la IA al desarrollo de la IA, utilizando LLMs, incluyen el filtrado y mejora de datasets de internet, servir como modelos de recompensa para RLHF basados en ejemplos de preferencias humanas, y generar contenido de diálogo a partir de datasets que no son de diálogo. También se utilizan para sintetizar ejemplos de seguimiento de instrucciones y generar datos semi-sintéticos o totalmente sintéticos para entrenamiento general y enfocado en tareas.
¿Por qué el informe «Reframing Superintelligence» desafía la noción prevaleciente de IA avanzada como un agente superinteligente?
El informe desafía esta noción porque considera que se le ha asignado un peso desproporcionado, sesgando la investigación sobre la alineación de la IA. Ofrece un marco alternativo que incluye tanto riesgos como oportunidades que se pasan por alto desde perspectivas centradas en el agente. El objetivo es ampliar la ontología de la comunidad para incluir sistemas en los que las capacidades de nivel superinteligente puedan tomar una forma más accesible, transparente y manejable.
Artículo Original: https://www.alignmentforum.org/posts/LxNwBNxXktvzAko65/reframing-superintelligence-llms-4-years
Consejos:
- Especializa los modelos de IA para tareas específicas, utilizando entrenamiento enfocado y ajuste fino, para obtener mejor rendimiento y menor costo.
- Considera la aplicación de modelos de ‘Comprehensive AI Services’ (CAIS) en lugar de agentes unitarios, ya que ofrecen un enfoque más seguro y práctico para el desarrollo de la IA.
- Utiliza modelos de aprendizaje automático para desarrollar modelos predictivos de la aprobación humana, guiando y limitando las decisiones de los agentes de IA avanzados.
Deja una respuesta