Usar IA con criterio: lo que aprendí sobre uso responsable de la inteligencia artificial
Usar IA con criterio: lo que aprendí sobre uso responsable de la inteligencia artificial
Si trabajas en tecnología, sobre todo ahora que todo cambia tan rápido y que la inteligencia artificial está al alcance de cualquiera que tenga un celular, toca seguir aprendiendo. Soy muy fan de Coursera, y en uno de los cursos apareció un tema que vale la pena tomarse en serio: el uso responsable de la IA. Estas notas salen de ahí, pero también de tratar de llevar esas ideas al trabajo de todos los días.
Uno se da cuenta pronto de algo: la IA ayuda bastante, pero también puede hacer que la gente confíe más de la cuenta. Y ahí empiezan los problemas.
Se habla mucho de la IA como sinónimo de rapidez y productividad. Algo de eso hay. Pero ninguna herramienta reemplaza tu experiencia, tu contexto ni tu criterio. Puede ayudarte a resumir, comparar, redactar o acelerar tareas. Lo que no puede hacer es hacerse responsable por lo que entregas.
Por eso me gustó el enfoque del curso. No era una lista rígida de reglas, sino una forma de pensar el uso de estas herramientas. La idea de fondo es simple: mantener a una persona supervisando el proceso. Usar la IA como apoyo, no como reemplazo del juicio profesional.
La primera línea de defensa: no regalar información sensible
Uno de los errores más comunes cuando la gente se entusiasma con estas herramientas es introducir más información de la necesaria. A veces por prisa, a veces por costumbre, a veces porque parece más cómodo copiar todo el documento, el correo o el caso completo y pedir que la IA lo resuelva.
Ahí empieza el problema.
Usar IA responsablemente también implica entender que no todo dato debería salir de tu entorno de trabajo para entrar en una herramienta pública. Antes de escribir un prompt, vale la pena parar un momento y preguntarse: ¿estoy poniendo aquí algo que debería mantenerse en privado?
Solo esa pausa ya evita varios problemas.
Algunas medidas básicas ayudan bastante.
- usar marcadores genéricos en lugar de nombres reales;
- enfocarse en la tarea y no en la identidad de las personas involucradas;
- compartir solo el contexto estrictamente necesario;
- y, cuando la herramienta lo permita, limpiar historial o memoria para evitar arrastrar información y sesgos de conversaciones anteriores.
Parece básico, pero no siempre se cumple. Y cuando se ignora, el riesgo no afecta solo al usuario. Puede comprometer a una organización, a colegas, a clientes o a socios.
No todo lo que la IA puede hacer, debería hacerlo
Otro punto importante del curso tiene que ver con regulación y cumplimiento. Este tema me parece clave porque en tecnología muchas veces confundimos capacidad técnica con permiso de uso. Que una herramienta pueda redactar algo, resumir un expediente o ayudar a tomar una decisión no significa automáticamente que sea correcto usarla para eso.
En sectores como salud, finanzas, derecho o gestión pública hay reglas claras sobre tratamiento de datos, documentación, responsabilidad, trazabilidad y decisiones críticas. En esos contextos, la IA no reemplaza a un profesional cualificado ni libera a nadie de responder por el resultado.
Eso obliga a hacerse algunas preguntas antes de incorporar IA a un proceso sensible.
- ¿Esta tarea está regulada?
- ¿Requiere una licencia, acreditación o validación profesional?
- ¿Está claro quién asume la responsabilidad por lo que entre y salga de la herramienta?
Este punto es importante porque baja un poco la ansiedad de “usar IA para todo”. A veces la mejor decisión no es automatizar más, sino delimitar mejor dónde sí conviene usarla y dónde no.
La rendición de cuentas también forma parte del trabajo bien hecho
Hay otra idea del curso que me pareció muy útil: dejar rastro del proceso no es burocracia, es parte del trabajo bien hecho.
Si usas IA en una tarea importante, deberías poder explicar qué te ayudó a hacer, cómo revisaste la salida y qué parte sigue siendo tuya. Eso sirve para una auditoría formal, pero también para algo más simple: poder sostener tu trabajo cuando alguien te pregunte cómo llegaste a una conclusión.
Dicho más claro: si no puedes explicar el proceso, probablemente no lo controlaste del todo.
Por eso tiene sentido:
- rastrear fuentes y distinguir entre aportes propios y contenido generado por IA;
- hacer el proceso auditable;
- documentar cómo se verificó la salida, especialmente en trabajos sensibles o de alto impacto.
Esto apunta a algo más amplio: usar IA responsablemente no consiste solo en evitar errores técnicos. También consiste en que tu trabajo siga siendo defendible.
Una lista simple que vale la pena recordar: ACT
El material del curso propone una lista de verificación bastante útil: ACT. Me gusta porque resume lo esencial sin volverlo complicado.
A de Autoevaluación
Antes de usar la herramienta, conviene detenerse un momento y revisar tres cosas.
La primera es si la IA realmente es adecuada para esa tarea. No todo necesita IA, y mucho menos si la tarea entra en terreno médico, legal, financiero o profesional especializado.
La segunda es si los datos que piensas usar son seguros para ese entorno. Si el contenido es sensible, confidencial, personal o propietario, no debería entrar en una herramienta pública sin un marco claro de protección.
La tercera es si estás cumpliendo las reglas de tu organización. Esto incluye políticas internas, herramientas aprobadas y límites de uso. Muchas veces el problema no es tecnológico, sino de gobernanza.
C de Comprobación
Una vez que la IA responde, empieza una parte del trabajo que muchas personas quieren saltarse: verificar.
Hay que revisar precisión factual, nombres, cifras, citas y cualquier dato presentado como cierto. También hay que evaluar sesgos, falta de equilibrio, simplificaciones engañosas o salidas con tono inadecuado para la audiencia.
Y además hay algo más: hace falta añadir criterio propio. Un buen resultado no debería publicarse o entregarse tal cual salió del modelo. Conviene editar, refinar, contrastar y mejorar la salida para que realmente tenga valor.
Esa parte es importante porque el uso responsable de la IA no es solo “detectar alucinaciones”. También es evitar que el trabajo quede genérico, superficial o fuera de contexto.
T de Transparencia
El último punto es la transparencia. Si la IA participó de forma relevante en la generación de un contenido, una recomendación o una entrega, eso debería comunicarse de manera clara cuando corresponda.
No se trata de convertir cada uso en una confesión dramática. Se trata de ser honesto respecto al proceso y de respetar las normas de divulgación que existan en tu organización o en tu entorno profesional.
La transparencia también ayuda a ordenar expectativas. Permite entender qué fue automatizado, qué fue supervisado y qué sigue dependiendo del juicio humano.
Lo más importante no es la herramienta, sino el criterio
Si tuviera que resumir estas notas en una sola idea, sería esta: usar IA responsablemente es una práctica de criterio profesional.
No alcanza con escribir buenos prompts ni con probar herramientas nuevas todo el tiempo. Lo importante es saber cuándo conviene usarlas, con qué datos, bajo qué reglas y qué tipo de revisión hace falta después.
Eso vale para una persona que trabaja sola, para un equipo de producto, para una universidad, para una empresa o para una institución pública. En todos los casos, la pregunta de fondo es parecida: ¿esta herramienta está ampliando nuestra capacidad de trabajo o está debilitando nuestra responsabilidad?
Conclusión
En medio de tanto entusiasmo por la inteligencia artificial, conviene volver a lo básico: privacidad, contexto, cumplimiento, verificación y responsabilidad.
La IA puede acelerar el trabajo. Pero el verdadero valor no está en usarla más rápido, sino en usarla mejor.
Y usarla mejor, casi siempre, significa no perder criterio en el camino.
Recursos
- Nota base:
03 Recursos/IA/Mejores prácticas para una IA responsable.md - Fuente original: Coursera - Responsible AI Best Practices