Un ingeniero y una politóloga enfrentan algunos dilemas éticos de la inteligencia artificial como las habilidades, los derechos de autor y el uso de esta tecnología por parte de la niñez y la juventud.
-Luisa María López Politóloga y docente.
-José Betancur Ingeniero de sistemas y director Nodo Universidad Eafit.
1. ¿Quién debería poner los límites de lo que una IA puede o no puede hacer? ¿El mercado, el Estado, la sociedad civil?
Luisa: Yo creo que la regulación de la inteligencia artificial no puede venir solo del Estado; primero tiene que haber un debate en la sociedad civil sobre sus implicaciones. No me parece que tenga mucho sentido hacer una ley general sobre IA porque no es lo mismo hablar de IA en educación —donde incluso algunas entidades la han empezado a trabajar— que hablar de la privacidad de los datos o en temas de seguridad y biometría. Cada uso tiene implicaciones éticas, técnicas y subjetivas diferentes, la regulación debería pensarse de forma específica para cada caso.
José: Lo importante no es decidir quién debe regular la inteligencia artificial, sino tener una conversación incómoda sobre qué tipo de futuro queremos construir. El mercado actúa rápido, pero con una visión cortoplacista enfocada en ganancias, como se ve en las grandes empresas que avanzan sin detenerse a pensar en el bien común. El Estado reacciona lento y siempre llega tarde, y la sociedad civil tiene voz, pero pocos mecanismos para incidir. Por eso, más que enfocarnos en límites, deberíamos preguntarnos qué tipo de IA queremos potenciar: una que realmente amplifique lo mejor de nuestra humanidad.
2. ¿Qué habilidades humanas son irremplazables por una IA? ¿Cuáles ya no lo son?
Luisa: Yo creo que hay dos capacidades fundamentales que no pueden perderse: el pensamiento crítico —entendido no solo como organizar información, sino como hacerse preguntas conectadas con el contexto y la propia historia— y la creatividad. Las inteligencias artificiales generativas imitan la creatividad, pero en realidad lo que hacen es apropiarse del trabajo creativo de otras personas, muchas veces sin permiso. Siempre he visto que requieren supervisión humana y, al menos por ahora, siguen siendo herramientas bastante falibles.
José: Hay habilidades humanas que, hasta ahora, la inteligencia artificial no puede reemplazar, como la empatía genuina. La IA puede simular empatía, pero no sentirla ni comprender verdaderamente al otro. Tampoco puede replicar una creatividad que nace del dolor, de las contradicciones internas o del aprendizaje a través del error. En cambio, ya perdimos terreno en cosas como la memoria enciclopédica, la consistencia o la velocidad de cálculo: ahí las máquinas son superiores porque no se cansan, no se distraen y no olvidan. Pero el foco no debería ser competir con la IA, sino colaborar con ella y pensar cómo puede amplificar lo mejor de lo humano, no reemplazarlo.
3. ¿Estamos entrenando IA para ampliar nuestra inteligencia o para sustituirnos?
Luisa: Podría ser una herramienta muy útil para reducir las jornadas laborales, automatizar tareas y disminuir el tiempo de trabajo necesario para producir bienes o servicios, pero eso no está pasando, porque estas tecnologías se están desarrollando dentro de un sistema económico que prioriza la acumulación, no el descanso o el bienestar de las personas. Así que, aunque se diga que puede potenciar el trabajo humano, en realidad lo que se potencia es la capacidad de producción, no al ser humano como tal.
José: La verdadera cuestión es cómo integrar la IA para complementar lo humano, preparando a las personas para roles que requieren creatividad, pensamiento crítico y habilidades sociales, mientras que la IA puede potenciar esas capacidades. No es una competencia, sino una oportunidad para redefinir lo que significa ser humano.
4. ¿Qué riesgo social les parece más urgente por la IA?
Luisa: Me parece peligroso cómo se están dando interacciones emocionales con estas tecnologías, como cuando alguien dice que no necesita ir a terapia porque la IA le da mejores consejos que su psicólogo o sus amigos. Hace unos años veíamos películas como Her y pensábamos que eso pasaría dentro de siglos, pero ya están ocurriendo. Aunque sí hay riesgos en el ámbito laboral y algunas profesiones van a tener que adaptarse, mi principal preocupación está en cómo afecta esto a las relaciones humanas y al bienestar individual, porque creo que puede tener consecuencias muy graves.
José: Lo más urgente a resolver es la desigualdad digital. Hemos formado a más de 11 mil personas de todas las edades, y lo que vemos es que la falta de acceso y alfabetización digital es un gran obstáculo. Hoy en día, es esencial enseñar cómo utilizar la IA, no solo para lo que viene, sino para que cualquier persona pueda incorporarla en su vida diaria. Aunque muchos usan herramientas como Waze, Netflix o Spotify constantemente, no saben cómo aprovechar realmente la tecnología.
5. ¿Qué pasará con la propiedad intelectual y los derechos de autor en un mundo donde la IA puede crear, copiar y transformar obras humanas? ¿Estamos protegiendo suficientemente la creatividad?
Luisa: No estamos protegiendo casi nada la creación artística y científica, ni desde lo institucional —porque el Estado no está actuando— ni desde lo individual, aunque tampoco debería recaer solo en cada persona. Ante esa falta de regulación, creo que podríamos al menos reflexionar sobre el uso que hacemos, por ejemplo, de imágenes generadas por IA, y las implicaciones que eso tiene para los derechos de autor. ¿Deberíamos tratarlas como propiedad privada o de otra forma? ¿Cómo reconocemos la autoría sin restringir el acceso general al conocimiento? Pero lo que sí veo claro es que, en el caso de las IAs, hay quienes se están lucrando con obras sin ser sus autores, y ahí sí me parece urgente proteger a quienes las crean.
José: Vemos el potencial de mejorar un 1% al día en el uso de la inteligencia artificial, lo que podría resultar en un 300-400% de mejora al final del año, debido al crecimiento exponencial. El desafío clave es democratizar ese conocimiento y llevarlo a más lugares. Por eso, nos asociamos con Microsoft para crear un laboratorio de IA y extender su alcance. La tecnología sola no resolverá el problema; necesitamos voluntad y apertura.
6. ¿Debe una obra generada por IA tener derechos de autor? ¿Y si la IA se entrenó con obras de arte humanas sin permiso?
Luisa: Para mí, la propiedad de esas nuevas creaciones es algo tripartito: por un lado, está el autor original, que no solo debe ser reconocido moralmente, sino también económicamente si su obra se usa con fines de lucro. Además, debería tener el derecho a decidir si autoriza o no ese uso y poder demandar si no se respetó su decisión. Por otro lado, hay un componente de propiedad en quien construye el prompt, porque ahí también hay creatividad humana. Y, finalmente, hay algo que corresponde a la propia inteligencia artificial como herramienta. Entonces, diría que la autoría está repartida entre esos tres actores.
José: El tema de la propiedad intelectual es complicado y no está claro ni en Estados Unidos ni en Europa. En Estados Unidos, solo se pueden patentar o registrar derechos si hay un humano detrás de la creación. Aunque protegemos la creatividad humana, los modelos de IA a veces se entrenan con obras protegidas por derechos de autor sin un uso justo claro, lo que genera un problema complejo. Aún no sabemos bien cómo definir una "contribución" y cómo protegerla para que no se utilicen nuestras obras sin consentimiento. Aunque no estamos protegiendo adecuadamente la creatividad, debemos enfocarnos en crear herramientas que potencien la creatividad humana, asegurando que la expresión humana siga existiendo en el futuro.
7. ¿Qué rol deberían jugar los niños, niñas y jóvenes en la conversación sobre inteligencia artificial?
Luisa: Yo creo que hay que incluirles porque igual van a tener acceso a las tecnologías, nos guste o no, como ya pasó con el computador, el celular o las consolas. Me parece más sano que ese acceso se dé con cierta conciencia, acorde a su etapa de desarrollo, entendiendo cómo funciona la inteligencia artificial, para qué sirve, para qué no, y cómo se relaciona con su contexto. Lo que me preocupa es que muchas personas le están dando a la IA un estatus casi divino, como si todo lo que dijera fuera cierto. A diferencia de otras herramientas como Wikipedia o Google, donde solemos contrastar información, con la IA muchas veces no lo hacemos.
José: Mi hija de 12 años ha usado IA desde el 2023 para potenciar su creatividad. En su programa Smart Life, dirigido a jóvenes de 10 a 17 años enseñan cómo usar la IA para mejorar la creatividad y resolver problemas. La juventud de hoy es la primera generación nativa de IA, por lo que es crucial que comprendan temas como privacidad, seguridad digital y ética. A través del programa, se ha notado que las y los jóvenes utilizan la IA no solo para hacer tareas, sino para potenciar habilidades y resolver problemas en sus comunidades.
¿Qué otros dilemas encuentras en la IA?
Etiquetas:
contrapunteo dilemaseticos ia luisa joseSuscríbete a nuestro boletín y mantente actualizado.
La Revista Comfama es un medio de comunicación educativo, de circulación gratuita, que tiene como objetivo generar conversaciones sanas y constructivas que transmitan valores positivos a través del poder del ejemplo y las historias.