Tenga cuidado al confiar en la apertura del AGI para determinar si hay certeza o incertidumbre.
getty
En la columna de hoy, exploro la creciente suposición de que existe una brecha de certeza en la IA asociada con el logro de la inteligencia artificial general (AGI). Esto es lo que lo constituye. Algunos argumentan que a medida que nos acercamos al AGI, nuestra apariencia de certeza de que lo lograremos aumenta y la incertidumbre disminuye. Esto implica que nuestra capacidad para predecir o pronosticar la llegada de AGI se fortalece progresivamente durante el arduo viaje hacia AGI.
hablemos de ello
Este análisis de un avance revolucionario en IA es parte de mi cobertura actual de la columna de Forbes sobre lo último en IA, incluida la identificación y explicación de varias complejidades impactantes de la IA (ver enlace aquí).
Hacia AGI y ASI
Primero, algunos antecedentes sirven para preparar el terreno para esta discusión sobre el peso.
Se están realizando una gran cantidad de investigaciones para seguir avanzando en la IA. El objetivo general es lograr inteligencia artificial general (AGI) o incluso la posibilidad ampliada de lograr superinteligencia artificial (ASI).
AGI es una inteligencia artificial que se considera igual a la inteligencia humana y aparentemente puede igualar nuestra inteligencia. ASI es una inteligencia artificial que ha ido más allá del intelecto humano y sería superior en muchos, si no en todos, los sentidos posibles. La idea es que ASI sería capaz de correr en círculos alrededor de los humanos, superándonos en todo momento. Para obtener más detalles sobre la naturaleza de la IA convencional frente a AGI y ASI, consulte mi análisis en el enlace aquí.
Aún no hemos llegado a AGI.
De hecho, se desconoce si alcanzaremos el AGI o si tal vez se pueda lograr el AGI en décadas o quizás siglos. Las fechas de consecución del AGI que circulan son muy variables y no están respaldadas por ninguna evidencia creíble o lógica firme. ASI está incluso más allá de los límites en lo que respecta a nuestra situación actual con la IA convencional.
Apertura de certeza
Si está cambiando de tema, considere una regla general sobre viajes y destinos. Nuestra intuición nos dice que cuanto más nos acerquemos a una meta o destino, mejor podremos predecir cuándo llegaremos allí. Es un principio casi universal.
Imagina que estás caminando por el desierto. Al comienzo de su caminata, probablemente tenga una idea aproximada de cuándo llegará al campamento de sus sueños junto a este tranquilo lago. Puede tomar cinco o hasta diez horas recorrer las colinas. Todo depende de cómo se sienten tus piernas, si el terreno es razonable y de muchos otros factores.
Después de caminar sin parar durante dos horas bajo el sol, haces un balance de dónde estás y cuándo podrás llegar a este lago helado. ¿Puede estimar mejor cuándo llegará potencialmente al campamento? Probablemente sí. Ahora tienes cierta distancia y puedes juzgar mejor cómo es probable que proceda.
Podría decirse que abrirse a la certeza le da una idea mucho más clara de cuándo llegar a su destino. Otra forma de verlo es que la incertidumbre se está reduciendo. Esta misma idea de medir el logro de algo se aplica a todo tipo de asuntos de la vida. Cuanto más te acercas, más fuerte pareces poder adivinar cuándo se producirá la llegada.
AGI Apertura de certeza
¿Se aplica la brecha de certeza al logro del AGI?
Muchos en la comunidad de IA suponen que este debe ser el caso. Parece razonable. Poco a poco estamos avanzando en la IA convencional. Cada paso parece acercarnos al tan cacareado AGI. A lo largo de este progreso gradual, deberíamos poder ver mejor cuándo se alcanzará el AGI.
Por ejemplo, digamos que las predicciones de alcanzar el AGI en 2040 están más o menos dentro del objetivo (consulte mi análisis de las predicciones de la fecha del AGI 2040 y otros en el enlace aquí). Una creencia común es que dentro de cinco años de AGI, como 2035, sabremos mucho si se producirá AGI. Mientras tanto, a diez años de 2030, se supone que las probabilidades de medir el AGI en 2040 son mucho menores.
Puede replantear esta sensación de comprensión haciendo referencia a la incertidumbre en lugar de a la certeza. La incertidumbre de predecir 2040 es mayor (somos más inciertos) en 2030 que en 2035. La incertidumbre disminuye a medida que se acerca el objetivo previsto.
Errores en el camino AGI
Un mundo idealizado garantizaría que la apertura de la certeza funcione todo el tiempo. Pero, siendo realistas, no vivimos en un mundo así. cara triste
Pensemos de nuevo en la excursión a este melancólico camping. El hecho de que ya hayas realizado una caminata de dos horas no necesariamente te dice nada sobre en qué podría consistir el resto del sendero. Sin que lo sepas, es posible que un oso enojado te esté esperando en el camino. El oso definitivamente ralentizará tu progreso y es posible que tengas que esperar horas hasta que la bestia se aleje.
Los avances en IA pueden ser similares a este tipo de creencia falsa de que el progreso ya logrado equivaldrá de alguna manera a un probable progreso futuro.
Los avances de la IA podrían llegar a toparse con un obstáculo. Quizás esto retrase el paso de la IA a la AGI unos años, quizás una década o más. Imaginemos que en el camino hacia la fecha 2040, surge un grave obstáculo en el año 2036. Mientras que en 2035 todo parecía bien, el obstáculo de 2036 plantea un problema importante para el logro planificado de 2040.
Otro descarrilamiento podría ser que los esfuerzos para hacer avanzar la IA sean tan secretos que sea casi imposible evaluar cómo van las cosas. En el año 2035, imaginemos que todos los fabricantes de IA son abiertos y no revelan el estado de su IA. Determinar el estado de la IA puede resultar difícil para proyectar lo que podría surgir en 2040.
Más pronto de lo que piensas
Hasta ahora he destacado aspectos que retrasarían o prolongarían la consecución de la AGI. La otra cara de esta moneda es que AGI podría surgir antes de lo previsto.
Este es un escenario de este tipo. Algunos creen fervientemente que experimentaremos una explosión de inteligencia, que consistirá en que la IA se alimente de otra IA y se acelere rápidamente hacia AGI; consulte mi discusión en el enlace aquí. Digamos que avanzamos poco a poco con los avances de la IA y de repente nos topamos con una explosión de inteligencia. Minutos u horas después, listo, se alcanzó el AGI.
Nadie puede decir con certeza si de alguna manera provocaremos una explosión de inteligencia. Tampoco nadie puede decir con certeza si esto puede ocurrir por sí solo, sin la intervención de la mano humana. Incluso tratar de adivinar cuándo se produciría una explosión de inteligencia es igualmente objeto de debate.
Volviendo a la apertura de certeza del AGI, imaginemos que es el año 2035 y todas las predicciones están alineadas de que para 2040 alcanzaremos el AGI. En 2036 se produce una explosión de inteligencia. Nos toma a todos por completa sorpresa. En cualquier caso, el AGI se alcanzará repentinamente en 2036.
Haciendo lo mejor que podemos
El resultado es que, si bien vale la pena hacer predicciones sobre el AGI, incluso hacerlo con la mente abierta y la certeza, hay muchas maneras en que se podría alterar el recorrido. Se debe aplicar honestamente una gran dosis de sal y una actitud de escrutinio al pronosticar cuándo se alcanzará el AGI.
Peter Drucker, el legendario gurú de la gestión, lo dijo mejor sobre los desafíos que supone hacer predicciones: “Tratar de predecir el futuro es como tratar de conducir por una carretera rural de noche sin luces y mirando por la ventanilla trasera”.
Es más o menos el mismo curso de acontecimientos al que se enfrenta la consecución del AGI.

















