Por Sonia Yánez Blum <a href="https://x.com/soniayanezblum" rel="" title="https://x.com/soniayanezblum"><b>@soniayanezblum</b></a>El 24 de noviembre marca una fecha silenciosa, pero fundamental a nivel global: la Unesco adoptó la primera gran recomendación internacional sobre la ética de la inteligencia artificial. Aunque para muchos puede parecer una efeméride más, esta decisión ya afecta la vida diaria de niños, estudiantes, profesionales, comunicadores y empresarios ecuatorianos. Hoy el recordatorio global de un compromiso colectivo: <b>situar la ética como eje central del desarrollo tecnológico</b>.Ese día, en 2021, la Unesco adoptó oficialmente la <b>Recomendación sobre la Ética de la Inteligencia Artificial</b>, el primer marco internacional que reúne principios, valores y directrices concretas para guiar cómo se crea, implementa y regula la IA en el mundo. Un acuerdo histórico aprobado por 193 países durante la 41.ª Conferencia General celebrada en París, que marcó un antes y un después para Gobiernos, empresas, comunicadores, educadores y ciudadanos.La ética dejó de ser un discurso aspiracional y pasó a convertirse en una hoja de ruta urgente: garantizar derechos humanos, proteger la privacidad, promover la transparencia, incluir todas las voces y exigir rendición de cuentas en cada sistema automatizado.Por eso, <b>cada 24 de noviembre</b> no solo conmemoramos una firma diplomática. Recordamos que <b>la tecnología que transforma nuestras vidas también debe respetarlas. </b>La inteligencia artificial no puede avanzar sin alma. Y esa alma se llama ética.Una ética que toca la educación, la comunicación, la ciencia, la cultura, el periodismo y la vida cotidiana. Una ética que define qué tan humano será el futuro que estamos construyendo.<b>Ética en la reputación digital y en el uso diario de la IA</b>Vivimos tiempos donde la línea entre lo real y lo fabricado se desdibuja. Crisis informativas, campañas políticas manipuladas y una avalancha de “realidades” digitales nos empujan a repensar la ética como pilar esencial de nuestra convivencia y reputación en el entorno <i>online. </i>Es fácil ver anuncios sobre automatización y contenido generado por inteligencia artificial, lo importante es no abandonar la autenticidad en busca de ahorro de tiempo y aumento de productividad. Las marcas y los profesionales que actúan con criterio ético —desde la transparencia en sus procesos hasta el respeto por la privacidad y la inclusión de voces diversas— no solo se diferencian. Se consolidan como referentes confiables en medio del ruido digital.La ética, cuando se vive con coherencia, deja de ser un discurso aspiracional y se convierte en un activo real de liderazgo con propósito.<i><b>Deepfakes</b></i><b> y manipulación electoral: el nuevo desafío</b>Durante las elecciones de 2025 en Ecuador, el contenido falso distribuido en redes fue creado o manipulado, en su mayoría, con inteligencia artificial. Los <i>deepfakes</i> —videos o audios fabricados por IA— se usaron para suplantar voces e imágenes de noticiarios y candidatos, influyendo en el debate público y la intención de voto. Si la tecnología no va de la mano de la ética y la transparencia, nadie está a salvo.<b>Decálogo para el uso ético de la IA en comunicación (extraído del Manual Estratégico de IA y Prompts para Comunicadores)</b>La ética en inteligencia artificial ya es la brújula para navegar la nueva realidad. El 24 de noviembre: una fecha para no olvidar que la identidad y la reputación siguen siendo, ante todo, responsabilidad y decisión humanas.<b>Chatbots y tareas hechas por IA: ¿apoyo o trampa educativa?</b>El 85 % de los estudiantes ya utiliza la IA de forma rutinaria en sus estudios y el 18 % entrega trabajos totalmente generados por IA sin modificar. La pregunta ética es urgente: ¿educamos para aprender o solo para delegar y pasar? Si la IA se convierte en muleta constante, la línea entre apoyo y trampa se vuelve cada vez más fina. <b>A los docentes que sienten que sus estudiantes ya no escriben, solo copian:</b> La inteligencia artificial no es el problema. ChatGPT puede generar respuestas, pero no puede formar pensamiento crítico. Esa sigue siendo nuestra tarea. No se trata de prohibir la IA, sino de <b>enseñar a dialogar con ella</b>, de usarla como punto de partida, no como atajo.Cuando ayudamos a nuestros estudiantes a hacer buenas preguntas, evaluar fuentes y construir su propia voz, estamos educando para la vida, no solo para aprobar un curso. Porque en la era de la automatización, <b>el verdadero aprendizaje es el que no se puede delegar.</b>El 24 de noviembre no es solo una fecha; es un recordatorio de que la ética en inteligencia artificial ya no es opcional. Es la base para que nuestra voz, nuestra identidad y nuestra autoridad tengan sentido y propósito en la era digital, y toque a cada estudiante, profesional y ciudadano.¿Quién habla cuando no eres tú? Tu liderazgo no puede depender de datos sin alma.Tu reputación merece propósito, criterio y estrategia.