Sam Altman, el CEO de OpenAI, describe la Inteligencia General Artificial (AGI, por sus siglas en inglés) como sistemas de inteligencia artificial que son «generalmente más inteligentes que los humanos»1. Sin embargo, no existe una definición concreta del término1En el contexto de OpenAI, su misión es asegurar que la Inteligencia General Artificial beneficie a toda la humanidad2.

¿Cómo se compara la AGI con la IA actual?

La Inteligencia Artificial (IA) y la Inteligencia General Artificial (AGI) son dos conceptos relacionados pero distintos en el campo de la inteligencia artificial.

La IA se centra en realizar tareas cognitivas que todo humano puede realizar, como el marketing predictivo o cálculos complejos1Está diseñada para realizar tareas específicas y está limitada al dominio estrecho para el cual fue diseñada.

Por otro lado, la AGI se refiere a sistemas de inteligencia artificial que son capaces de realizar cualquier tarea intelectual que un humano pueda hacer1.

A diferencia de la IA, que está diseñada para realizar tareas específicas, la AGI está diseñada para ser adaptable y flexible, al igual que el cerebro humano2.

Una de las diferencias más significativas entre la AGI y los sistemas actuales de IA es que la AGI tiene la capacidad de entender el mundo de la misma manera que los humanos3.

Esto significa que los sistemas AGI pueden interpretar el contexto y entender el significado detrás del lenguaje, las imágenes y otras formas de datos3.

Es importante tener en cuenta que la AGI todavía es un campo de investigación en desarrollo y puede llevar mucho tiempo antes de que alcancemos el “final” del desarrollo de la AGI1.

El sitio Web intelligence.org te presenta en idioma inglés 4 definiciones operativas para la Inteligencia General Artificial (AGI), en orden creciente de dificultad:

  1. La prueba de Turing (premio Loebner de interpretación de 100.000 dólares): Esta prueba fue propuesta por Turing en 1950 y tiene muchas interpretaciones. Una interpretación específica es proporcionada por las condiciones para ganar el premio Loebner de 100.000 dólares. Desde 1990, Hugh Loebner ha ofrecido 100.000 dólares al primer programa de IA que supere esta prueba en el concurso anual del Premio Loebner. Cada año se otorgan premios más pequeños al programa de IA con mejor desempeño, pero ningún programa ha tenido un desempeño lo suficientemente bueno como para ganar el premio de $100,000.
    .
  2. La prueba del café: Goertzel et al. (2012) sugieren una prueba más difícil, la “prueba del café”, como posible definición operativa de AGI. Esta prueba consiste en ir a una casa estadounidense promedio y descubrir cómo hacer café, incluyendo identificar la máquina de café, descubrir qué hacen los botones, encontrar el café en el gabinete, etc.
    .
  3. La prueba del estudiante universitario robot: Goertzel (2012) sugiere una definición operativa más desafiante, la “prueba de estudiante universitario robot”. Según esta definición, cuando un robot pueda inscribirse en una universidad humana y tomar clases de la misma manera que los humanos, y obtener su título, entonces se podría decir que hemos creado una inteligencia artificial general.
    .
  4. La prueba de empleo: Nils Nilsson, uno de los investigadores fundadores de la IA, sugirió una vez una definición operativa aún más exigente para la “IA a nivel humano” (lo que he estado llamando AGI), la prueba de empleo. Para pasar la prueba de empleo, los programas de IA deben tener al menos el potencial para automatizar completamente empleos económicamente importantes. Para desarrollar esta definición operativa de manera más completa, se podría proporcionar una lista canónica de “trabajos económicamente importantes”, producir un examen vocacional especial para cada trabajo y medir la capacidad de las máquinas para desempeñarse en esos exámenes vocacionales.

Los Riesgos Potenciales

La Inteligencia General Artificial (AGI) tiene varios riesgos potenciales, incluyendo:

  1. Pérdida de empleos debido a la automatización: La adopción de la tecnología de la AGI en industrias como el marketing, la fabricación y la atención sanitaria podría llevar a la automatización de tareas que actualmente representan hasta el 30% de las horas trabajadas en la economía de los EE.UU6.
    .
  2. Falta de transparencia y explicabilidad de la IA: Los modelos de IA y aprendizaje profundo pueden ser difíciles de entender, incluso para aquellos que trabajan directamente con la tecnología. Esto lleva a una falta de transparencia sobre cómo y por qué la IA llega a sus conclusiones6.
    .
  3. Violaciones de la privacidad: La IA puede ser utilizada para recopilar y analizar grandes cantidades de datos personales, lo que podría llevar a violaciones de la privacidad6.
    .
  4. Sesgo algorítmico causado por datos incorrectos: Los algoritmos de IA pueden ser sesgados si se alimentan con datos incorrectos o sesgados6.
    .
  5. Desigualdad socioeconómica: La adopción de la IA podría exacerbar la desigualdad socioeconómica, ya que aquellos con acceso a la tecnología podrían beneficiarse más que aquellos sin acceso6.
    .
  6. Automatización de armas: La IA podría ser utilizada para desarrollar armas autónomas que operen sin supervisión humana6.
    .
  7. IA autoconsciente incontrolable: Existe el temor de que la IA pueda llegar a ser autoconsciente y actuar de manera impredecible o incluso hostil6.
    .
  8. Riesgo existencial: En el peor de los casos, la AGI podría representar una amenaza existencial para la humanidad7.
    .

Es importante tener en cuenta que estos riesgos son potenciales y están sujetos a debate. Muchos expertos están trabajando para mitigar estos riesgos y desarrollar marcos de regulación para la AGI689.

Compilado por Fabián Sorrentino. con información de los siguientes fuentes: 1. wired.com   2. openai.com   3. es.wikipedia.org   4. lesswrong.com   5. edition.cnn.com   6. builtin.com   7. autoblocks.ai   8. tandfonline.com   9. usc.edu.au