Sam Altman, el CEO de OpenAI, describe la Inteligencia General Artificial (AGI, por sus siglas en inglés) como sistemas de inteligencia artificial que son «generalmente más inteligentes que los humanos»1. Sin embargo, no existe una definición concreta del término. En el contexto de OpenAI, su misión es asegurar que la Inteligencia General Artificial beneficie a toda la humanidad2.

¿Cómo se compara la AGI con la IA actual?

La Inteligencia Artificial (IA) y la Inteligencia General Artificial (AGI) son dos conceptos relacionados pero distintos en el campo de la inteligencia artificial.

La IA se centra en realizar tareas cognitivas que todo humano puede realizar, como el marketing predictivo o cálculos complejos1Está diseñada para realizar tareas específicas y está limitada al dominio estrecho para el cual fue diseñada.

Por otro lado, la AGI se refiere a sistemas de inteligencia artificial que son capaces de realizar cualquier tarea intelectual que un humano pueda hacer1.

A diferencia de la IA, que está diseñada para realizar tareas específicas, la AGI está diseñada para ser adaptable y flexible, al igual que el cerebro humano2.

Una de las diferencias más significativas entre la AGI y los sistemas actuales de IA es que la AGI tiene la capacidad de entender el mundo de la misma manera que los humanos3.

Esto significa que los sistemas AGI pueden interpretar el contexto y entender el significado detrás del lenguaje, las imágenes y otras formas de datos3.

Es importante tener en cuenta que la AGI todavía es un campo de investigación en desarrollo y puede llevar mucho tiempo antes de que alcancemos el “final” del desarrollo de la AGI1.

El sitio Web intelligence.org te presenta en idioma inglés 4 definiciones operativas para la Inteligencia General Artificial (AGI), en orden creciente de dificultad:

  1. La prueba de Turing (premio Loebner de interpretación de 100.000 dólares): Esta prueba fue propuesta por Turing en 1950 y tiene muchas interpretaciones. Una interpretación específica es proporcionada por las condiciones para ganar el premio Loebner de 100.000 dólares. Desde 1990, Hugh Loebner ha ofrecido 100.000 dólares al primer programa de IA que supere esta prueba en el concurso anual del Premio Loebner. Cada año se otorgan premios más pequeños al programa de IA con mejor desempeño, pero ningún programa ha tenido un desempeño lo suficientemente bueno como para ganar el premio de $100,000.
    .
  2. La prueba del café: Goertzel et al. (2012) sugieren una prueba más difícil, la “prueba del café”, como posible definición operativa de AGI. Esta prueba consiste en ir a una casa estadounidense promedio y descubrir cómo hacer café, incluyendo identificar la máquina de café, descubrir qué hacen los botones, encontrar el café en el gabinete, etc.
    .
  3. La prueba del estudiante universitario robot: Goertzel (2012) sugiere una definición operativa más desafiante, la “prueba de estudiante universitario robot”. Según esta definición, cuando un robot pueda inscribirse en una universidad humana y tomar clases de la misma manera que los humanos, y obtener su título, entonces se podría decir que hemos creado una inteligencia artificial general.
    .
  4. La prueba de empleo: Nils Nilsson, uno de los investigadores fundadores de la IA, sugirió una vez una definición operativa aún más exigente para la “IA a nivel humano” (lo que he estado llamando AGI), la prueba de empleo. Para pasar la prueba de empleo, los programas de IA deben tener al menos el potencial para automatizar completamente empleos económicamente importantes. Para desarrollar esta definición operativa de manera más completa, se podría proporcionar una lista canónica de “trabajos económicamente importantes”, producir un examen vocacional especial para cada trabajo y medir la capacidad de las máquinas para desempeñarse en esos exámenes vocacionales.

Revisemos la propuesta de DeepMind respecto de la AGI

Exploración y Potencial de la IAG
    • Ampliamos los límites de la Inteligencia Artificial General (AGI) mediante preparación meticulosa, evaluación proactiva de riesgos y colaboración con la comunidad global.
    • La IAG, capaz de igualar o superar la potencia cognitiva humana, se está integrando con la capacidad de comprender, razonar, planificar y actuar de forma autónoma para enfrentar desafíos críticos.
    • Pregunta: ¿Cómo impactará la AGI áreas clave como salud, educación y crecimiento económico?
Beneficios Tangibles para la Sociedad
    • Se prevé que la AGI tenga beneficios directos para miles de millones de personas:
      • Diagnósticos médicos más rápidos y precisos.
      • Educación personalizada y accesible.
      • Reducción de barreras para la innovación, permitiendo a pequeñas organizaciones abordar problemas complejos.
    • Pregunta: ¿De qué forma la AGI puede transformar la vida diaria y democratizar el acceso a herramientas avanzadas?
Retroalimentación y Supervisión para un Sistema Seguro
    • Ejemplo inspirador: en el juego de Go, el movimiento 37, con una probabilidad de 1 en 10,000, sorprendió incluso a expertos cuando AlphaGo lo ejecutó.
    • Utilizamos sistemas de IA que ofrecen retroalimentación en formato de debate para validar sus respuestas y determinar su corrección.
    • Mediante entrenamiento robusto, estimación de incertidumbre y supervisión, capacitamos a la IA para enfrentar escenarios reales de forma segura.
    • Contamos con “monitores” que detectan acciones no alineadas y, en caso de dudas sobre su seguridad, las rechazan o las señalan para revisión.
    • Pregunta: ¿Cómo garantiza esta supervisión la fiabilidad de la IA en situaciones imprevistas?
Transparencia y Optimización en la Toma de Decisiones
    • La claridad en la toma de decisiones es vital; por ello, investigamos la interpretabilidad de los sistemas de IA para hacerlos más comprensibles.
    • Desarrollamos iniciativas como la Optimización Miope con Aprobación No Miope (MONA), que asegura que la planificación a largo plazo de la IA resulte transparente para los usuarios.
    • Pregunta: ¿Cómo mejora la transparencia la confianza y la seguridad en la aplicación de sistemas avanzados?
Construcción de un Ecosistema y Colaboración Internacional
    • Nuestro Consejo de Seguridad de IA, liderado por expertos como Shane Legg, analiza riesgos y mejores prácticas, colaborando con equipos internos de responsabilidad y seguridad.
    • Estas iniciativas se complementan con la supervisión humana, garantizando que las decisiones de la IA se mantengan alineadas con los valores deseados.
    • A nivel externo, colaboramos con gobiernos, organizaciones sin fines de lucro (como Apollo y Redwood Research) y foros internacionales (por ejemplo, Frontier Model Forum) para compartir y definir normas de seguridad.
    • Además, hemos lanzado un curso sobre seguridad de la AGI para formar a investigadores y profesionales interesados en este campo.
    • Pregunta: ¿Cuál es el papel de la colaboración global en establecer un marco seguro y responsable para la AGI?

Ahora revisemos los Riesgos Potenciales de la AGI

  1. Pérdida de empleos debido a la automatización: La adopción de la tecnología de la AGI en industrias como el marketing, la fabricación y la atención sanitaria podría llevar a la automatización de tareas que actualmente representan hasta el 30% de las horas trabajadas en la economía de los EE.UU6.
    .
  2. Falta de transparencia y explicabilidad de la IA: Los modelos de IA y aprendizaje profundo pueden ser difíciles de entender, incluso para aquellos que trabajan directamente con la tecnología. Esto lleva a una falta de transparencia sobre cómo y por qué la IA llega a sus conclusiones6.
    .
  3. Violaciones de la privacidad: La IA puede ser utilizada para recopilar y analizar grandes cantidades de datos personales, lo que podría llevar a violaciones de la privacidad6.
    .
  4. Sesgo algorítmico causado por datos incorrectos: Los algoritmos de IA pueden ser sesgados si se alimentan con datos incorrectos o sesgados6.
    .
  5. Desigualdad socioeconómica: La adopción de la IA podría exacerbar la desigualdad socioeconómica, ya que aquellos con acceso a la tecnología podrían beneficiarse más que aquellos sin acceso6.
    .
  6. Automatización de armas: La IA podría ser utilizada para desarrollar armas autónomas que operen sin supervisión humana6.
    .
  7. IA autoconsciente incontrolable: Existe el temor de que la IA pueda llegar a ser autoconsciente y actuar de manera impredecible o incluso hostil6.
    .
  8. Riesgo existencial: En el peor de los casos, la AGI podría representar una amenaza existencial para la humanidad7.
    .

Es importante tener en cuenta que estos riesgos son potenciales y están sujetos a debate. Muchos expertos están trabajando para mitigar estos riesgos y desarrollar marcos de regulación para la AGI689.

Compilado de múltiples fuentes por el Dr. Fabián Sorrentino: DeepMind, 1. wired.com   2. openai.com   3. es.wikipedia.org   4. lesswrong.com   5. edition.cnn.com   6. builtin.com   7. autoblocks.ai   8. tandfonline.com   9. usc.edu.au