Artículo de opinión

José Carlos Botto Cayo y Abel Marcial Oruna Rodríguez

18 de agosto del 2025

La irrupción de la inteligencia artificial (IA) no es un episodio de moda tecnológica, sino un cambio de escala que toca nervios esenciales: verdad, empleo, autoridad y responsabilidad. El temor que se respira en redacciones, oficinas y talleres no es histeria: es prudencia profesional ante sistemas opacos que producen respuestas fluidas sin mostrar su cadena de decisión. Un oficio serio exige procesos verificables, no milagros estadísticos; el miedo, bien encauzado, se vuelve método: obliga a pedir papeles, límites y trazabilidad antes de entregar el timón del criterio humano (Chakravorti, 2024).

En el terreno creativo, la IA abarata el primer borrador —ideas, bocetos, maquetas— y reordena cadenas de valor. Hay oportunidades reales, pero también desplazamientos y tensiones sobre derechos de autor y atribución. La respuesta no es el entusiasmo ciego ni el rechazo total, sino una disciplina conservadora: distinguir asistencia de sustitución, proteger la firma y pactar reglas de juego que preserven el incentivo de crear. Sin ese marco, la herramienta se traga el oficio; con él, se pone a trabajar para nosotros, no en contra (Heaven, 1970).

Por qué tememos a la IA

El primer motor del temor es la opacidad. La mayor parte de los modelos actuales funciona como caja negra: ofrecen salidas plausibles, pero ocultan el camino que siguieron para generarlas. En contextos profesionales, esa opacidad erosiona la confianza y dificulta auditar sesgos, fallos y filtraciones. Un entorno de responsabilidad exige contratos con obligaciones de transparencia, registro de prompts y versiones, y una revisión humana con nombre y firma antes de publicar (Chakravorti, 2024).

El segundo motor es el desplazamiento laboral. La IA no necesita “entender” para impactar: basta con que abarate tareas repetitivas y prototipos. Algunos puestos se reconvierten, otros se reducen y aparecen nuevos roles en curaduría, edición y control de calidad. El debate honesto no es “reemplazo sí o no”, sino qué funciones automatizar sin vaciar de sentido el trabajo y cómo asegurar reconocimiento y remuneración cuando la herramienta entra en la cadena productiva (Heaven, 1970).

El tercero es la alucinación de los modelos generativos. Por diseño, los sistemas de lenguaje predicen texto probable; no verifican hechos. El resultado son cifras inventadas, citas apócrifas y una elocuencia que puede engañar al ojo apresurado. Asumir que “la próxima versión” solucionará todo es ingenuo: se necesitan arquitecturas con recuperadores de evidencia, verificadores automáticos y validación humana obligatoria cuando la precisión es vinculante (Leffer, 2024).

Por último, preocupa la concentración de poder y el discurso de “escala a toda costa” que ciertas empresas presentan como destino manifiesto. Innovar no es excusa para socializar costos y privatizar beneficios: energía, empleo, veracidad y derechos culturales no son externalidades. Gobernar la IA con contrapesos y responsabilidades claras no frena el progreso; lo hace habitable para sociedades abiertas que exigen rendición de cuentas (Warzel, 2024).

Riesgos reales hoy

La desinformación sintética ya opera como veneno lento. Aunque un “deepfake” aislado no defina por sí solo un proceso electoral, la duda permanente corroe la confianza: incluso material auténtico se discute como si todo pudiera ser falso. No hay antídoto mágico: se requiere alfabetización mediática, protocolos de verificación, marcas de procedencia y una cultura que premie la evidencia por encima de la velocidad (Schiff, Jackson Schiff, & Bueno, 2024).

La erosión del criterio es otro riesgo: delegar razonamiento cotidiano en sistemas generativos, sin controles, atrofia el músculo del juicio. La comodidad tiene costo operativo: más errores caros, menos contraste y dependencia creciente de salidas estadísticas. La cura es conocida: líneas rojas, control editorial y métricas de calidad que midan exactitud, contexto y responsabilidad, no solo “engagement” o rapidez (Chakravorti, 2024).

En ámbitos críticos —legal, sanitario, financiero— la tentación de “que lo haga el chatbot” es un atajo que puede salir caro. La literatura periodística y técnica ha documentado consejos erróneos y citas inventadas en tareas que requieren precisión. El principio rector es simple: en dominios de alta exigencia, la IA asiste como motor de búsqueda verificada; no decide ni redacta productos finales sin supervisión experta (Leffer, 2024).

También contamos la colonización del gusto: si todo se produce para agradar al algoritmo, la cultura se homogeneiza. La IA puede ayudar a explorar, pero no debe dictar el canon. La defensa es profesional: editar con criterio, proteger la voz y explicitar cuándo hubo asistencia algorítmica. En el largo plazo, la originalidad paga; el atajo permanente empobrece la oferta y degrada a los autores (Heaven, 1970).

Reglas para usar la IA sin perder el oficio

Primero, propósito antes que herramienta. Ningún despliegue empieza por “tengo un modelo”; empieza por “tengo un problema humano que resolver”. Definir umbrales de calidad, límites de uso, dueño del proceso y ruta de auditoría evita enamorarse de métricas vanidosas. La confianza no se pide: se fabrica con procesos repetibles y evidencia disponible (Chakravorti, 2024).

Segundo, humano al mando y trazabilidad. Toda salida de IA que vaya a público debe pasar por revisión humana con nombre y firma; además, conservar prompts, versiones y fuentes consultadas. Sin trazabilidad, no hay corrección posible ni defensa reputacional. La disciplina de archivar lo hace todo más lento al comienzo y mucho más seguro al final (Leffer, 2024).

Tercero, contratos y derechos en regla. No se entrena con material sin licencia ni se sube información sensible a servicios sin garantías robustas. A nivel de proveedores, hay que exigir políticas claras de privacidad, retención y localización de datos, además de cláusulas de salida que permitan cambiar de servicio sin perder los insumos del trabajo (Heaven, 1970).

Cuarto, gobernanza y contrapesos. La organización necesita una política interna de IA con tareas permitidas y prohibidas, un plan de incidentes —por ejemplo, ante suplantación de marca o “deepfakes”— y un comité que rinda cuentas sobre riesgos. Innovar con frenos no es cobardía: es la forma profesional de asegurar continuidad y legitimidad (Warzel, 2024).

Defensa de la verdad y marco público

Las marcas de procedencia ayudan: estándares como C2PA —firmas criptográficas embebidas en fotos, audios y videos— ofrecen una capa de comprobación útil para medios, marcas y autoridades. No blindan el ecosistema, pero elevan el costo de la manipulación y acotan el daño. Combinadas con marcas de agua visibles y políticas de archivo accesibles, favorecen la verificación independiente (Schiff, Jackson Schiff, & Bueno, 2024).

Los protocolos editoriales completan la defensa: dos fuentes externas para datos sensibles, verificación cruzada para citas y pistas, y obligación de indicar si una pieza fue generada o asistida por IA. La regla operativa es conservadora y eficaz: si la precisión es vinculante, la evidencia manda; si no hay evidencia suficiente, no se publica (Chakravorti, 2024).

Hace falta también una cultura profesional que ponga la herramienta en su sitio: la IA es excelente para explorar y acelerar borradores; la voz, el criterio y la responsabilidad siguen siendo humanos. La organización que no fija límites se convierte en megáfono del proveedor; la que los fija gana autonomía y credibilidad. La prueba del nueve es simple: ¿podemos defender públicamente cada decisión tomada con IA? (Warzel, 2024).

El cierre es sereno: entre la ingenuidad y el pánico hay una franja de responsabilidad donde ocurren las cosas buenas. Procesos claros, contratos serios, formación continua y carácter para decir “hasta aquí” convierten el miedo en reglas y las reglas en confianza. La IA pasará de versión, de nombre y de moda; el oficio, si se cuida, permanece. Usémosla sin obedecerle, auditemos sin cansancio y firmemos sin vergüenza lo que, al final, sigue siendo nuestro: el criterio (Heaven, 1970).

Referencias

Chakravorti, B. (3 de Mayo de 2024). Harvard Business Review. Obtenido de AI’s Trust Problem: https://hbr.org/2024/05/ais-trust-problem

Heaven, W. D. (1 de Enero de 1970). MIT Technology Review en español. Obtenido de La IA generativa no necesita ser inteligente para amenazar el trabajo creativo.: https://technologyreview.es/article/la-ia-generativa-no-necesita-ser-inteligente-para-amenazar-el-trabajo-creativo/

Leffer, L. (5 de Abril de 2024). Scientific American. Obtenido de AI Chatbots Will Never Stop Hallucinating. : https://www.scientificamerican.com/article/chatbot-hallucinations-inevitable/

Schiff, D. S., Jackson Schiff, K., & Bueno, N. (30 de Mayo de 2024). Brookings Institution. Obtenido de Watch out for false claims of deepfakes, and actual deepfakes, this election year: https://www.brookings.edu/articles/watch-out-for-false-claims-of-deepfakes-and-actual-deepfakes-this-election-year/

Warzel, C. (24 de Julio de 2024). The Atlantic. Obtenido de AI’s Real Hallucination Problem.: https://www.theatlantic.com/technology/archive/2024/07/openai-audacity-crisis/679212/