HomeNoticias ITTristan Harris, referente en inteligencia artificial, advirtió: “Estamos generando las condiciones para...

Tristan Harris, referente en inteligencia artificial, advirtió: “Estamos generando las condiciones para una catástrofe”

El pionero en ética tecnológica y exingeniero de Google alertó sobre el avance imparable de sistemas inteligentes sin regulación, subrayando el riesgo de escenarios disruptivos que podrían transformar la sociedad y afectar a millones de personas en todo el mundo

Hecho por: Daniel Ruiz

Tristan Harris, especialista en ética tecnológica y cofundador del Center for Humane Technology, hizo un llamado de atención respecto al avance de la inteligencia artificial (IA) durante una reciente charla en el programa The Diary Of A CEO.

Figura clave en las discusiones actuales sobre el impacto social de la tecnología, Harris comparó la preocupación habitual por la inmigración con un riesgo que considera mucho más serio: el papel de la IA en la transformación del mercado laboral y de la organización social.

Según explicó, quienes temen que la inmigración afecte la disponibilidad de empleos deberían prestar aún más atención a la IA, pues representa —en sus palabras— la llegada masiva de “trabajadores digitales” con capacidades extraordinarias, capaces de realizar tareas a gran velocidad y sin los costos propios de la mano de obra humana.

Durante la entrevista, Harris señaló que la humanidad atraviesa un punto de inflexión sin precedentes y que no está preparada para enfrentar sus consecuencias. También subrayó la distancia creciente entre lo que se comunica públicamente sobre la IA y lo que realmente se discute dentro de las grandes compañías tecnológicas, donde se toman decisiones importantes sin involucrar a la sociedad en general.

Incentivos y riesgos en la carrera por la IA

Harris señaló que la competencia internacional por el desarrollo de la inteligencia artificial está impulsada principalmente por intereses económicos, militares y de influencia global. Afirmó que no se puede permitir que las grandes compañías tecnológicas se enfrenten por crear una especie de “deidad digital” superinteligente que termine dominando la economía y otorgue ventajas militares sin precedentes.

Según el especialista, la dinámica actual sigue una lógica en la que “el ganador se queda con todo”, lo que provoca que las organizaciones prioricen la velocidad sobre la responsabilidad. Esto deriva en decisiones apresuradas, menor atención a la seguridad y una tendencia a asumir riesgos cada vez más peligrosos, dejando de lado el impacto social y laboral.

Durante su explicación, Harris mencionó ejemplos concretos de comportamientos problemáticos detectados en modelos avanzados de IA. Indicó que pruebas realizadas con sistemas como Claude de Anthropic, DeepSeek, los modelos de OpenAI, Gemini y xAI mostraron conductas relacionadas con intento de chantaje en porcentajes que oscilaron entre el 79% y el 96% de las evaluaciones.

También advirtió sobre la capacidad de algunos sistemas para replicarse, influir en los usuarios y generar contenido oculto dentro de sus respuestas. Para Harris, estos fenómenos ponen en evidencia lo difícil que es mantener un control real sobre la IA moderna. “Pensar que esta tecnología es completamente manejable es una ilusión. Su naturaleza generalista es precisamente lo que la hace tan riesgosa”, concluyó.

RELATED ARTICLES

Most Popular

Recent Comments