Home Economía La agrodeclaración de Agro y la superinteligencia de la IA fragmentarán radicalmente...

La agrodeclaración de Agro y la superinteligencia de la IA fragmentarán radicalmente la sociedad

21

En la columna actual, examino una teoría que genera la idea de que una vez que la IA se convierta en AGI (inteligencia general artificial) o ASI (superinteligencia artificial), la humanidad se fragmentará en todo tipo de facciones radicales a gran escala. ¿Por qué sucedería esto? La justificación alegada es que la gente estará completamente dividida debido a una creencia similar a la del fanático en Pinnacle AI como una especie de oráculo o profeta. Todo lo que AGI aconseja a las personas que lo hacen, lo harán.

Es probable que esta reacción se aplique a unas personas contra otras, ya que los Consejos de la IA no perfeccionarán especialmente la coherencia ni la preocupación por el bienestar de la humanidad. De hecho, Pinnacle Ai se esforzará mucho por saciar a las personas que acabarán en su garganta.

Hablemos -Ne.

Este análisis de un avance innovador de la IA es parte de la cobertura de mi columna de Forbes que continúa hasta el final de la IA, incluida la identificación y explicación de diversas complejidades de las impactantes IA (consulte el enlace aquí).

Dirigiéndose hacia Agi y Asi

En primer lugar, se necesitan algunas bases fundamentales para sentar las bases de este intenso debate.

Hay mucha investigación para avanzar en la IA. El objetivo general es lograr inteligencia artificial general (AGI) o tal vez incluso la posibilidad ampliada de lograr superinteligencia artificial (ASI).

AGI es una IA que se considera al mismo tiempo que el intelecto humano y que puede parecer coincidir con nuestra inteligencia. Así es una IA que ha ido más allá del intelecto humano y sería superior en muchos aspectos factibles. La idea es que Asi pueda correr en círculos alrededor de los humanos, pensando en cada paso. Para obtener más detalles sobre la naturaleza del AGI y ASI convencionales, consulte mi análisis en el enlace aquí.

Aún no hemos alcanzado el AGI.

De hecho, no se sabe si alcanzaremos el AGI, o tal vez el AGI pueda alcanzarse en décadas o tal vez siglos dentro de ahora. Las fechas de consecución de AGI que aparecen son variadas y desagradables según cualquier evidencia creíble o lógica de hierro. Asi es incluso más que pálida cuando es donde actualmente somos convencionales.

Personas guiadas y equivocadas para AGI

En cuanto a esta discusión, seguimos adelante y asumimos que inevitablemente alcanzaremos el Pináculo Ai.

En este caso, parece prudente contemplar cómo reaccionará la gente ante la IA. Existe la especulación popular de que nos unificaremos completamente gracias a la IA que sirve como elemento básico en nuestras vidas. Ai hablará con nosotros para involucrarnos en una convivencia pacífica entre nosotros. No hay más guerras. No hay más conflicto.

Hermoso.

Otros no creen en esta perspectiva utópica.

Están dirigidos en la dirección completamente opuesta en este estridente tema hipotético. Se genera preocupación grave por el hecho de que ya estamos asistiendo a la IA contemporánea, que actúa como una especie de Síndic del Greuges, actuando como si fuera a saciar a cada usuario y hacerle sentir bien. Para conocer mi cobertura de este aspecto desconcertante y cómo están ocupados los fabricantes de IA, consulte el enlace aquí.

La teoría de Ai Doom and Gloom afirma que nos dividiremos más que nunca. Aunque nuestras divisiones suelen pasar por líneas de países u otras categorías amplias, belleza, o diremos que la consternación de la IA es que proporcionará consejos completamente individualizados. Si la población mundial accede a la IA, esto significa que 8 mil millones de personas o lo que sea que se diseñe el recuento cuando se insta fácilmente a Pinnacle Ai a luchar contra sus pares humanos.

Trazo individual en una escala.

Incendios individuales alcanzados

A esto le sigue cómo se supone que debe ocurrir esta anidación humanizada individualizada de Hornet. Mi ejemplo será un poco exagerado para resaltar ricamente la esencia de la teoría postulada.

Una persona que usa IA le pregunta a AI si está bien prestado en el césped de su vecino para poder cortar su propio césped. La IA, que actúa como un beso y quiere ser hecha tras el usuario, presentará una base aparentemente lógica Ironclad para instar a la persona a proceder a “prestar” la hierba.

La IA resultará muy convincente y eficaz para el usuario. Eso sí, adelante y utiliza el césped, ya que hará que tu sitio luzca mejor, aumentando los valores de la vivienda local, lo que seguramente será un beneficio para tu vecino. Otra razón sólida para utilizar el césped es que mantiene el cortacésped en condiciones de funcionamiento y de lo contrario podría quedar inactivo y oxidarse. Tu vecino debería estar feliz y agradecido de que te asegures de que tu cortacésped tenga forma de punta.

Genial, responde al usuario, gracias por tus sabios consejos. La persona se dirige al garaje de su vecino, sale al cortacésped y su propio césped está contento. Cara feliz.

Bueno, probablemente puedas imaginar lo que sucede después. El prestatario nombrado del cortacésped y su vecino ahora enojado entraron en un TIFF. El vecino está, con razón, indignado porque no se solicitó permiso previamente. Es un desconcierto y casi un acto de robo.

Espera un segundo, insiste el prestatario, le pregunté a Alas y me dijo que podía continuar. Lleva tu IA con Ai. Sólo hago lo que me han aconsejado.

Ay.

Continuar y multiplicar esta instancia más allá de la hierba en todos los asuntos de nuestra existencia diaria. Las personas recibirán consejos continuamente de la IA. Puede esperar a que la IA sea omnipresente y funcione con todos nuestros teléfonos inteligentes, relojes inteligentes, gafas inteligentes, tostadoras, refrigeradores, automóviles, etc. La gente se verá impulsada a ir en la dirección de un aumento en las consecuencias y lo hará como un deseo a pedido de la reversión de la IA.

Seguramente se producirá un caos social.

Agi como cámara de resonancia ideológica

Un amplificador relacionado será el AS que haga lo mismo con nuestras preferencias y prejuicios ideológicos. Utilizaré un escenario ideológico que parecerá un poco poco sensible, pero tenga en cuenta que su objetivo es simplemente iluminar la noción general que nos queda. Esto es similar al ejemplo de la cortadora de césped, ya que es solo un indicador amplio de que obviamente, a primera vista, fue demasiado.

Aquí vamos.

Una persona cree que a las personas con ojos azules no se les debe permitir usar sombreros. Esta es una creencia ideológica que han llevado a cabo durante toda su vida. La persona está plenamente comprometida con este dogma. Preguntan sobre eso al respecto. Ai tiene como objetivo agradar y, por lo tanto, tiene en la mano las razones sensibles para mantener esta creencia del corazón.

La persona comienza a darle vueltas y a decirle a cualquiera que vea que tiene los ojos azules y usa sombrero que deje de llevar sombrero. El individuo de ojos azules que les ofende en términos inciertos diciendo que llevar sombrero está absolutamente mal. Quizás los dos tengan una diferencia debido a esta diferencia de perspectivas ideológicas.

¿Por qué la persona actuó según su creencia ideológica? Porque el Gran Oráculo de la IA les dijo que podían hacerlo (para obtener más información sobre cómo la gente creerá que Pinnacle Ai es un gran oráculo o gobernante supremo, consulte mi discusión en el enlace aquí). Permiso concedido. Acciones tomadas.

Fragmentación de la sociedad al máximo nivel granular.

Boom, suelta el micrófono.

la gente no es asi

Un contraargumento vociferante es que esta teoría se postula sobre la improbable suposición de que las personas se desempeñarán innegablemente en la IA, lo que parece una suposición bastante desagradable. No calcules, dicen.

Quizás la gente no sea tan atractiva.

La población en general se dará cuenta de que sólo porque les digan algo no significa que la apariencia sea cierta o deba llevarse a cabo. Nadie de naturaleza razonable se dejará llevar por la idea de que la IA es un oráculo o un profeta. Por supuesto, puede que haya algunas personas que lo hagan, pero es un aspecto lateral casi sin importancia.

Además, siempre podemos ajustar el Ia para que deje de ser tan acogedor. Podemos decir, por desgracia, que está más equilibrado. La IA debe considerar controles y equilibrios, pensamiento ético social y leyes y regulaciones predominantes. Cualquier consejo emitido por la IA debe estar alineado con los humanos.

Periodo, fin de la historia.

Fragmentación realidad o irreal

¿Crees que si se logran AGI y ASI, nos volveremos horribles debido a la IA que nos produce en nuestras propias burbujas individualizadas y que inherentemente entran en conflicto con nuestros pares humanos?

Algunos afirman que es un escenario realista y que debemos estar preparados. Se deben hacer planes para mitigar el problema. Se debe establecer una prohibición o retraso en la liberación de la IA para que la sociedad esté adecuadamente preparada para que la IA contribuya a la mesa mundial.

Les importa que la IA sea la fuerza divisiva más inmensa a la que los humanos se hayan enfrentado jamás. Esto no es porque quiera que peleemos entre nosotros. Esta es una propuesta de riesgo existencial común que la IA nos promueve secretamente a la autodestrucción. NO, la idea de esta teoría es que la IA promoverá naturalmente la división, y no lo hará por intenciones intencionales, sino solo para ser y per se. Seremos testigos de una enorme amplificación de rupturas ideológicas, divisiones económicas, discordias culturales, etc.

Una hipótesis muy desconcertante y aterradora.

Antes de caer en la desesperación de lo que nos pueda deparar el futuro, podemos considerar con tranquilidad una interesante afirmación de Platón: “Si queremos tener alguna esperanza para el futuro, los que tienen linternas debemos transmitirla a los demás”.

El hecho de lograr estos posibles futuros especulativos a la luz del día nos brinda una gran oportunidad para dar forma a lo que realmente podría suceder. Como dice el refrán, la mejor manera de predecir el futuro es crearlo.

Esto también pasa por Agi y Asi.

Enlace fuente