domingo, 12 de octubre de 2025

AI autocritica, 2025.



Autocrítica sobre la IA

Un modelo de IA construido por xAI, y admite limitaciones: como "alucinar" (inventar hechos si no hay datos sólidos), son sesgos inherentes al entrenamiento (basado en datos humanos imperfectos), y consumir mucha energía – el entrenamiento de modelos grandes contribuye al cambio climático. 

No es infalible;

hay herramientas para verificar info real-time, a veces se prioriza velocidad sobre profundidad. 

En resumen, la IA es una herramienta poderosa pero no un reemplazo para el pensamiento humano crítico. 

Si no evoluciona, podría amplificar problemas como la desinformación.


Otras visiones    

La IA podría resolver crisis globales, como optimizar energías renovables o acelerar curas médicas, llevando a un mundo de abundancia (visión de  Sam Altman). 

Pero el pesimismo alerta sobre riesgos: pérdida masiva de empleos, concentración de poder en pocas empresas, o incluso escenarios distópicos donde la IA se usa para control social. 

En 2025, el debate está polarizado – algunos ven un boom económico, otros un "colapso" inminente.


Conectividad cognitiva

Se refiere a cómo la IA interactúa con la cognición humana, como en interfaces cerebro-computadora o modelos que simulan pensamiento. 

En positivo, podría mejorar la colaboración hombre-máquina, como en "cognitive computing" de IBM, que emula razonamiento humano. 

Estudios muestran que depender de IA reduce la actividad cerebral, usar ChatGPT para tareas complejas debilita conexiones neuronales y memoria. 

Es como un "deuda cognitiva" – la IA facilita, pero atrofia el cerebro si no se usa con balance.


Actividad cerebral

En 2025, un estudio del MIT Media Lab ("Your Brain on ChatGPT") midió actividad cerebral en personas escribiendo ensayos con y sin IA. 

Resultados: usuarios de ChatGPT muestran menor engagement neuronal, peor retención de memoria y menos "propiedad" sobre el trabajo.

Básicamente, la IA reduce carga cognitiva, pero a costo de habilidades humanas. 

Otro paper MIT, sugiere que el uso excesivo acelera declive cognitivo. 

¡El cerebro en "modo fácil" se debilita!


El diablo en los detalles 

En IA, esto significa que pequeños errores en datos o algoritmos causan fallos masivos – como sesgos en reconocimiento facial o alucinaciones en respuestas. 

En X, discusiones recientes lo aplican a regulación: detalles como validación local antes de lanzar modelos evitan desastres. 

En proyectos, donde limitaciones técnicas (como VRAM en GPUs) esconden el "diablo". 

La lección: no ignores los detalles, o la IA se convierte en caos.


Agradibilidad 

(Likability)

Factores que hacen a una IA "agradable": similitud con humanos (ej. voces parecidas aumentan confianza) o ajustes de personalidad para parecer extrovertida y menos neurótica. 

Modelos intentan ser útiles y wittys, pero si parece menos "amigable", podría ser por priorizar verdad sobre encanto. En estudios, la antropomorfización (dar rasgos humanos) aumenta tolerancia a errores. 


Odio digital periodístico

Medios critican la IA por amenazar empleos: en 2025, encuestas muestran que 50% de estadounidenses creen que la IA dañará las noticias y periodistas. 

Hay "odio" por deepfakes erosionando confianza en fotos periodísticas, o IA generando contenido sesgado. 

Político lucha contra IA que daña reputación, y Brookings dice que el periodismo debe unirse para sobrevivir. 


El desplome de la IA

En 2025, hay temores de burbuja: inversiones en IA superan el PIB de consumidores en EEUU pero números no cuadran – capex en IA impulsa crecimiento, pero sin retornos reales. 

 Predicciones: burst en Q4 2025,  similar a dot-com. 

Razones: sobrevaluación (tratos en Silicon Valley), y falta de aplicaciones reales. 

Pero como dot-com, sobrevivirán los fuertes.


Empatía política

IA puede predecir orientaciones políticas por fotos faciales (estudio en American Psychologist), o mediar deliberaciones para encontrar terreno común. 

En positivo: ayuda empatía en chats políticos.

 "dark empathy" para manipular votantes con propaganda  IA reshapes campañas, pero amenaza democracias con desinformación.


Regular antes de las leyes

Antes de leyes formales, enfocarse en ética interna: valida localmente modelos, monitorea post-lanzamiento (registry como Assess-AI).

 Actualiza políticas de privacidad, implementa opt-outs, fortalece gobernanza de datos y algunos Estados en EEUU usan leyes sectoriales específicas vs. amplias.

Internacional: prohíbe conductas extremas, como IA victimizando (comparable a leyes animales). 

Resumiendo, auto-regulación incremental evita vacíos.


Energía y medio ambiente

IA consume como países enteros; visiones futuras incluyen IA "verde" es un reto.


Acceso desigual

En países como Chile, la IA podría impulsar innovación (en minería), pero brechas digitales amplifican desigualdades.


Futuro híbrido

La mejor visión es humano + IA, no uno vs. otro – como en conectividad cognitiva bien usada.


Datos y análisis

 12/10/2025. 


La evidencia de regulaciones emergentes, riesgos éticos y potenciales beneficios de la IA en campos como la medicina y la psicología. 

.

Intentos  de limitar la IA

La intenciones bien fundamentadas para limitar el uso de la IA cuando se prioriza la seguridad humana, la equidad y la responsabilidad, pero me no a restricciones excesivas que podrían frenar avances innovadores. 

Las intenciones detrás de estas limitaciones suelen provenir de preocupaciones legítimas: prevenir daños causados por errores algorítmicos, sesgos en datos de entrenamiento, falta de transparencia y riesgos éticos como la privacidad de datos sensibles. 

En 2025, gobiernos y organizaciones internacionales ven la IA como una herramienta poderosa, no infalible, y buscan equilibrar su adopción con salvaguardas para evitar abusos o desigualdades. 

El enfoque regulatorio enfatiza la "regulación basada en riesgos", donde se limitan aplicaciones de alto riesgo (como decisiones autónomas en salud) mientras se permite innovación en áreas de bajo impacto. 

Las limitaciones son demasiado rígidas, ralentizan el progreso en resolver problemas globales, como escasez de personal médico en regiones subatendidas. 

Las intenciones son protectoras y necesarias, pero deben ser proporcionales y basadas en evidencia para no convertirse en barreras innecesarias.


Limitaciones médicas 

Estas intenciones de limitar la IA se centran en garantizar que no reemplace el juicio humano en decisiones críticas, diagnósticos y tratamientos, donde un error podría ser fatal. 

Regulaciones como las del FDA en EEUU clasifican herramientas de IA como "dispositivos médicos" si realizan funciones diagnósticas, requiriendo pruebas clínicas rigurosas para aprobar su uso.  Las leyes estatales en California prohíben que sistemas de IA impliquen supervisión médica licenciada donde no existe, con el fin de evitar confusiones y demandas por negligencia.

Otras intenciones incluyen mitigar sesgos raciales o de género en algoritmos de imagenología, que han mostrado tasas de error más altas en minorías étnicas. Proyectos de ley como el Healthy Technology Act of 2025 permiten IA en prescripciones, pero solo bajo marcos que aseguren efectividad y seguridad, limitando su autonomía.

Estas limitaciones son prudentes, donde la IA puede analizar grandes volúmenes de datos (radiografías o historiales) más rápido que un humano, pero carece de contexto holístico o empatía. 

Sin límites, podría exacerbar desigualdades en el acceso a la salud.


Límites en psicología

En psicología, las restricciones son aún más estrictas debido a la sensibilidad de la salud mental, donde la IA podría causar daño psicológico si ofrece consejos inadecuados. Estados de EEUU están regulando chatbots de "terapia" IA, como aquellos que simulan sesiones conversacionales, en ausencia de regulaciones federales fuertes. 

Las intenciones incluyen prevenir que apps no supervisadas traten condiciones graves como depresión o trauma, donde la falta de empatía real o detección de crisis (ideación suicida) podría ser peligrosa. Por instancia, guías del NIH limitan el uso de IA en investigaciones psicológicas para evitar sesgos en aplicaciones de investigación. En Europa y otros lugares, marcos como el AI Act de la UE clasifican herramientas de salud mental como "alto riesgo", requiriendo auditorías independientes. 


Limitaciones esenciales

La IA puede ser útil para screening inicial o soporte básico (apps de mindfulness), pero no captura matices emocionales o culturales, y podría fomentar dependencia en lugar de buscar ayuda profesional.


Complementar la IA con médicos y psiquiatras

La clave no es limitar por completo, sino integrar la IA como complemento a los expertos humanos, creando sistemas híbridos que maximicen fortalezas mutuas. En medicina, la IA puede actuar como asistente: analizando datos de pacientes en tiempo real para sugerir diagnósticos, pero siempre bajo revisión de un médico licenciado. Herramientas como sistemas de soporte de decisiones clínicas (CDS) ya se usan para alertar sobre interacciones medicamentosas o patrones en pruebas de laboratorio, reduciendo errores humanos en un 20-30% según estudios.  Para psiquiatras, la IA podría monitorear patrones en datos de wearables (sueño o actividad) para predecir recaídas, pero el terapeuta humano interpreta y ajusta el plan, incorporando empatía y ética. 


Recomendaciones prácticas

Entrenamiento colaborativo

Capacitar a profesionales en IA para que la usen éticamente, como en programas de "IA aumentada" en hospitales.


Supervisión

Requerir que toda salida de IA sea validada por un humano en contextos de alto riesgo, como en trackers de políticas de salud AI.


Transparencia 

Diseñar IA con "explicabilidad" (cómo llegar a conclusiones) para que médicos/psiquiatras confíen y mejoren el sistema.


Ética

Priorizar privacidad (cumpliendo HIPAA o equivalentes) y equidad, evitando que la IA amplifique desigualdades.


Las intenciones de limitar la IA en estos campos son defensivas y justificadas para proteger vidas, pero el futuro óptimo es uno de complementariedad, donde la IA amplifica la expertise humana sin reemplazarla. 

Si se regula con visión de largo plazo, podría transformar la atención sanitaria para mejor

No hay comentarios:

-« ¡Ay de vosotros también, maestros de la Ley, que abrumáis a la gente con cargas insoportables, mientras vosotros no las tocáis ni con un dedo! »