Home Educación ¿Su IA es ética, centrada en el ser humano y prosocial?

¿Su IA es ética, centrada en el ser humano y prosocial?

14

Las herramientas de IA ya no son un motor de búsqueda relativamente sencillo impulsado por métricas de marketing para ayudarnos a realizar nuestra investigación. Más bien, con la IA estamos utilizando herramientas más sofisticadas que realizan investigaciones y buscan respuestas a nuestras sugerencias mientras tomamos decisiones de selección de fuentes, configuraciones contextuales y sutilezas semánticas que afectan a los valores expresados ​​en los resultados.

Como he mencionado anteriormente en estas columnas, la mayoría de las veces busco aportaciones de una versión actual de cada uno de los tres modelos de frontera cuando realizo una investigación. El enfoque de tres puntos de vista me permite examinar una variedad de fuentes y puntos de vista y equilibrar los resultados para abordar perspectivas éticas y sociales. En el caso de este artículo, he enlazado inmediatamente debajo de las respuestas de investigación de la fundación que obtuve de las solicitudes del 19 de abril.

ChatGPT 5.4 Modelo de pensamiento Sugirió: “En la educación superior, el modelo de IA preferible éticamente no es necesariamente el más potente; es el modelo que funciona bien para el caso de uso a la vez que ofrece la evidencia más sólida de diseño centrado en el ser humano, transparencia, pruebas de seguridad y control institucional”.

Claude Sonnet 4.6 Modelo adaptativo sugirió: “Elección de un modelo de IA es ahora un acto ético, no sólo técnico. ¿El campo ha pasado de ‘funciona esto?’ a ‘¿esto sirve?’ Su columna puede ayudar a los decanos y los presidentes de departamento a convertirse en consumidores éticos informados, no ingenieros de IA, sino administradores críticos”.

Modelo de pensamiento Gemini 3 señaló: “Teniendo en cuenta su trabajo reciente para maximizar los rendimientos en la administración de la IA, cambiar el enfoque hacia los ‘Valores R’ (Retorno de los valores) es una evolución oportuna y necesaria para la conversación de educación superior”.

Antes de mirar los valores y orientaciones por defecto inherentes a algunos de los principales modelos de IA, permítame que le recuerde que al elaborar su mensaje, puede animar a la herramienta a poner énfasis en la generación de respuestas que incluyan orientaciones y perspectivas que aborden consideraciones éticas. Su indicación puede dirigir el modelo para que proporcione resultados que exploren, destaquen o enfaticen soluciones y ejemplos prosociales o centrados en el ser humano. Con el tiempo, si incluye estas indicaciones en sus indicaciones, los modelos más sofisticados que conservan memoria de sus indicaciones anteriores aprenderán a estar interesados ​​en estos valores. Si no se incluyen sus perspectivas preferidas, puede refinar las respuestas incluyendo una solicitud en un mensaje de seguimiento iterativo.

Cornelia C. Walther es un investigador visitante en la Wharton School de la Universidad de Pensilvania y un profesional humanitario que pasó más de 20 años en Naciones Unidas. Su investigación se centra en aprovechar la IA para el bien social. Walther señala en una edición reciente de Conocimiento en Wharton que la mayoría de la investigación sobre modelos de IA se realiza “exclusivamente a través de la lente de las ganancias de eficiencia, la reducción de costes y el aumento de ingresos”. Sin embargo, Walther dice: “Los paneles de control existentes no capturan si un sistema de IA es justo, si está erosionando o generando confianza, si está haciendo que las personas que lo utilicen sean más capaces o silenciosamente deshabilitándolos, y si su huella ambiental se tiene en cuenta o simplemente se ignora”.

A finales del pasado verano, Walther publicó un artículo en Forbes titulado “Por qué ProSocial AI es ProPlanetary AI. Una promesa para la armonía planetaria“, en la que explicó una serie de elementos para evaluar la IA que se pueden utilizar para determinar la sensibilidad al bien social. Walther señala que la IA prosocial “no sólo se trata de hacer que la IA sea más útil o ética”. Se trata de crear tecnología que sea a la vez favorable a la gente, al planeta y al potencial”.

Ella señala el Índice de seguridad IA 2025 del Future of Life Institute como un primer ejemplo de esta evaluación. En este índice, entre siete de los mayores modelos, Anthropic obtuvo un C-plus con un 2,64, OpenAI un C con 2,10 y Google DeepMind un C-minus con 1,76. En particular, DeepSeek anotó una F con 0,37.

Si desea mirar más de cerca las herramientas de IA que utiliza, incluidas las herramientas personalizadas que su universidad puede utilizar para fines específicos, Walther sugiere utilizar los elementos prosociales clave para crear una parrilla de cuatro por cuatro. Estos elementos se detallan en la Conocimiento en Wharton artículo:

LAS 4 T

  • A medida: el sistema de IA está diseñado para el contexto específico, la cultura y las limitaciones de sus usuarios, ¿no se ha copiado enganchado a partir de una plantilla genérica?
  • Entrenado: ¿el sistema se basa en datos y objetivos representativos e inclusivos que codifican los valores que la organización realmente quiere promover, no métricas de proxy que son simplemente convenientes?
  • Probado: ¿se evalúa rigurosamente para el sesgo, la robustez y las consecuencias no deseadas, antes del despliegue y continuamente después?
  • Orientado: ¿se aplica cuando la inteligencia artificial añade un valor genuino y se restringe, deliberadamente, cuando el juicio humano es insustituible?

Las 4 P

  • Propósito: ¿el sistema avanza una misión de la que todos los grupos de interés pueden estar orgullosos, más allá del próximo ciclo trimestral?
  • Personas: ¿mejora la experiencia, la agencia y el bienestar de todo el que construye, utiliza y se ve afectado?
  • Beneficios: ¿genera valor financiero duradero, no externalizando costes a la sociedad, sino creando un valor real?
  • Planeta: ¿se tiene en cuenta y se reduce activamente su consumo energético, la huella de materiales y el impacto ambiental sistémico?

Walther sugiere reunir a un equipo de liderazgo preparado para actuar ahora. El punto de entrada es una fricción deliberadamente baja. Elija un sistema de IA en producción actualmente, como un chatbot orientado al cliente, una herramienta de selección de contratación o un modelo de previsión de la demanda, y convoque un taller multifuncional de 90 minutos con representantes de tecnología, recursos humanos, finanzas, legal y sostenibilidad. Trabajando juntos a través de la parrilla de cuatro por cuatro de 16 celdas de la matriz, puntúe cada una con un sistema de semáforo simple: verde (fuerte), ámbar (en desarrollo) o rojo (no cumple).

No necesita un consultor ni una nueva plataforma de software para hacerlo. Necesitas honestidad intelectual, voluntad de actuar sobre lo que encuentras y la convicción de que las instituciones que florecen en la era algorítmica serán las que tuvieran la sabiduría para decidir, primero, qué merece ser gestionado y después construir los instrumentos a la altura. Esta conversación de 90 minutos es donde comienza el cambio de “tesorar lo que puedes medir” a “medir lo que deberías valorar”.

Si su misión u objetivos a escala institucional incluyen valores éticos, centrados en el ser humano o prosociales, debe evaluar y, si es necesario, corregir aquellas herramientas de IA que no cumplen los valores colectivos. ¿Está usted preparado para liderar la iniciativa para empezar a abordar la orientación prosocial de las herramientas de IA que utiliza en su universidad, departamento, universidad, escuela o división?

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here