Un estudiante redacta su ensayo con ChatGPT; otro diseña sus diapositivas con DALL·E; una profesora pide a su asistente virtual que le prepare rúbricas de evaluación; y, al fondo del aula, un profesor revisa papeles impresos, por costumbre, no por necesidad. No es ciencia ficción: es el campus universitario del 2025.

La inteligencia artificial (IA) —esa criatura que escribe, dibuja, traduce y razona— ha colonizado la educación superior y su dominio de investigación. Entró sin permiso, primero como curiosidad, luego como hábito, y hoy se ha convertido en una extensión natural de la mente académica. Tanto así que en aquella aula, junto a los pies del “profe”, se ocultan varios cajones de libros impresos y, alejados del mundanal ruido, los laboratorios se han olvidado de las arcaicas reglas de cálculo, de fantásticas calculadoras de mano y de clásicos microscopios ópticos o de luz.

De ahí que las universidades del mundo enfrenten un dilema crucial: ¿cómo enseñar e investigar cuando las máquinas, nutridas de algoritmos, también ‘piensan’?

Entre el entusiasmo y la alarma

El panorama internacional lo deja claro: la IA[1] y la IA generativa (IAg)[2] son, tanto una promesa, como un desafío. El Foro Económico Mundial habla de la “alfabetización en IA” como la nueva competencia esencial. No basta con saber usar herramientas, hay que comprender sus sesgos, sus límites y sus consecuencias sociales.

La UNESCO, siempre alerta a las implicaciones éticas y de equidad, pide a los gobiernos marcos educativos que combinen ética, pensamiento crítico y protección de datos. EDUCAUSE, red académica estadounidense, advierte que el verdadero desafío no es tecnológico, sino el de la preparación institucional. Su diagnóstico es tajante: la universidad que no planifique su estrategia de IA, y en particular de IAg, quedará rezagada.

En el Reino Unido, estudios recientes revelan que más del 90 % de los universitarios ya utilizan herramientas generativas. Mientras las instituciones discuten políticas, estudiantes e investigadores ya viven en el futuro. Es la prueba de que la adopción masiva precede a la gobernanza.

Escenarios previsibles

El aula universitaria cambiará más en cinco años que en los últimos cincuenta. Los exámenes memorísticos y los trabajos repetitivos perderán centralidad. Se impondrán las evaluaciones por proyectos, la defensa oral, los portafolios digitales. La IAg pasará de ser amenaza a ser herramienta, siempre que se enseñe a usarla con juicio.

Los currículos tenderán a ser híbridos: Derecho + IA, Salud + IA, Humanidades + IA. Y, de la investigación científica y la innovación tecnológica, ni hablar. El profesional del futuro deberá ser capaz de navegar entre el conocimiento teórico, la destreza tecnológica y el discernimiento ético.

Pero también se abrirán nuevas brechas. No solo entre países, sino dentro de las propias universidades: entre quienes tienen acceso a capacitación, infraestructura y orientación, y quienes no. EDUCAUSE nos habla de “la división digital de la IA”.

A su vez, surgirán nuevas formas de fraude y nuevas justificaciones. Los detectores de la artificialidad algorítmica de la inteligencia humana serán inútiles si la evaluación no cambia. No se trata de perseguir al estudiante, sino de redescubrir la envergadura de su honestidad intelectual.

El rol del académico, formador e investigador, también muta: del expositor al mentor del pensamiento. En el nuevo paisaje educativo, su valor no reside en memorizar y transmitir datos —para eso está la máquina—, sino en inspirar juicio, sentido, valor y criterio. “El profesor del futuro —decía un informe del WEF— no competirá con la IA: la hará pensar mejor”.

Los riesgos en casa

En la República Dominicana, los retos son palpables. Sobresalen tres riesgos predominantes: la adopción de IA e IAg sin capacitación, la desigualdad tecnológica de las instituciones y de su personal respectivo, además de la ausencia de políticas claras sobre integridad académica. Y, como si esas contingencias fueran poca cosa, se suman otros desafíos: la propiedad intelectual (¿a quién pertenece lo generado por una máquina y sus algoritmos?), la desinformación y los deepfakes, el desplazamiento laboral y la dependencia cognoscitiva.

El peligro no es teórico. Las universidades dominicanas ya sienten la presión: estudiantes que usan la IA en general o la generativa, en particular, sin guía; docentes que las recelan sin comprenderlas; administraciones que improvisan reglamentos; e, incluso, anteproyectos y disposiciones legislativas y gubernamentales que ni siquiera distinguen entre ellas.

En ese incipiente mundo real, la respuesta no puede ser la prohibición de su empleo, sino la educación guiada por la ética y el discernimiento. Ha llegado el momento de pasar del asombro a la acción: construir una agenda práctica y urgente, una hoja de ruta posible y razonable para que la universidad dominicana –en todos los frentes académicos en los que debe desenvolverse– conduzca el cambio, en lugar de privarse y seguirlo.

Una agenda práctica y urgente

Dado que el futuro no espera y la improvisación cobra caro, urge delinear una hoja de ruta posible y razonable que dé forma al cambio antes de que este nos desborde irremediablemente.

  1. Estrategia nacional universitaria de IA. El MESCyT podría convocar una mesa nacional para diseñar una política sectorial sobre IA en educación superior, basada al menos en marcos de referencia como los de UNESCO y OECD.
  2. Formación docente obligatoria. Un diplomado nacional en “IA para la enseñanza”, que capacite en ética, diseño instruccional y evaluación híbrida.
  3. Rediseño de la evaluación. Pilotear proyectos y defensas orales que premien el proceso más que el producto.
  4. Infraestructura y equidad. Laboratorios de IAg y conectividad en universidades públicas regionales, para evitar que la tecnología agrande la brecha.
  5. Políticas éticas y de protección de datos. Guías nacionales que garanticen privacidad y responsabilidad institucional.
  6. Alianzas y cooperación. Vincular la diáspora científica dominicana y las universidades extranjeras con experiencia en IAg, para programas de postgrado e investigación aplicada.

Cada una de esas medidas es perfectible, no futurible, sino urgente.

La oportunidad de hacer la universidad más humana

La IA y su vertiente generativa no son simples avances tecnológicos. Son máquinas que no solo calculan: relacionan, organizan, repiten, enmiendan e innovan. No estamos ante meros asistentes e instrumentos, sino frente a un espejo amplificado de la cultura humana y de la mayor parte de lo que esta ha descubierto, aprendido y reproducido. Como explica la UNESCO, ellas permiten a los sistemas “producir contenidos nuevos y originales a partir de datos existentes, desde textos hasta imágenes y música”.

La paradoja —como advertí en un ensayo reciente— es que “nunca habíamos tenido tanto acceso a la información y, sin embargo, corremos el riesgo de pensar menos”.

En ese contexto, la pregunta no es si la IA y la IAg van a cambiar la universidad, pues ya lo hicieron. La cuestión es si esa transformación la hará más humana, crítica y equitativa. Las voces más autorizadas coinciden: la tecnología puede ser un multiplicador, tanto del conocimiento, como de la desigualdad.

Lo que decidirá el rumbo será la política educativa. Una estrategia coherente —formación, gobernanza, inversión y, sobre todo, comportamiento ético— puede convertir el temido desplazamiento en expansión de capacidades. Si se falla, la universidad perderá su función y su valor y sentido histórico.

La IA y, sobre todo, en estos precisos momentos, la IAg no son el fin del pensamiento. No lo son del pensamiento humano y tampoco de Silicon Valley y de Wall Street. No obstante, lo que sí representan es el desafío vanguardista de pensarlo todo mejor. La manipulación en cuestión de milésimas de segundos –por la vía artificiosa– de tanta data acumulada por Sapiens, nos obliga a redefinir qué significa aprender, enseñar, investigar, descubrir y transformar.

Y, al final, la universidad que tenga éxito, en o fuera del país, no será la que más algoritmos domine, sino la que más bienestar y sentido preserve. Porque, como recuerda Nick Bostrom, “no hay innovación más peligrosa que aquella que pierde de vista lo humano”.

Antes de terminar, un consejo que —como todos los buenos consejos— nadie pidió: hagamos de la inteligencia artificial generativa el mayor logro de nuestro universo académico, y no su error más caro, nefasto y lamentable.

Bibliografía

Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
https://doi.org/10.1093/acprof:oso/9780198739838.001.0001

EDUCAUSE. (2023). Horizon Action Plan: Generative AI (R. Robert & N. Muscanell, Eds.). EDUCAUSE.
https://policycommons.net/artifacts/4936808/2023-educause-horizon-action-plan/5766055

EDUCAUSE. (2025, febrero 15). AI Landscape Study: Into the Digital AI Divide. EDUCAUSE Research.
https://www.infodocket.com/2025/02/15/report-2025-educause-ai-landscape-study-into-the-digital-ai-divide

Foro Económico Mundial (WEF). (2023). The Future of Jobs Report 2023. World Economic Forum.
https://www.weforum.org/reports/the-future-of-jobs-report-2023

Higher Education Policy Institute (HEPI) & Kortext. (2025, febrero 26). UK universities warned to stress-test assessments as 92 % of students use AI. The Guardian.
https://www.theguardian.com/education/2025/feb/26/uk-universities-warned-to-stress-test-assessments-as-92-of-students-use-ai

Organización para la Cooperación y el Desarrollo Económicos (OECD). (2021). AI and the Future of Education: Policy Guidance. OECD Publishing.
https://www.oecd.org/education/ai-and-the-future-of-education-policy-guidance.htm

UNESCO. (2021, enero 11). AI and Education: Guidance for Policy-Makers (M. Miao, W. Holmes, R. Huang & Z. Zhang, Eds.). UNESCO.
https://www.unesco.org/en/articles/ai-and-education-guidance-policy-makers

UNESCO. (2023, septiembre 7). Guidance for Generative AI in Education and Research. UNESCO.
https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research

[1] El concepto general que engloba todas las técnicas y sistemas que intentan reproducir o simular funciones propias de la inteligencia humana: razonar, aprender, asociar, resolver problemas, comprender el lenguaje y otras.

[2] Categoría específica dentro de la IA: la idea de una inteligencia artificial capaz de realizar cualquier tarea cognoscitiva que pueda hacer un ser humano, con rapidez extrema, con flexibilidad, autoconciencia y comprensión conceptual general del mundo.

Fernando Ferran

Educador

Profesor Investigador Programa de Estudios del Desarrollo Dominicano, PUCMM

Ver más