Desde el software líder en gestión de clínicas veterinarias responden a preguntas sobre la seguridad, eficacia y usabilidad de la inteligencia artificial dentro de los centros veterinarios
El software veterinario Provet Cloud responde las tres preguntas esenciales sobre el uso de la IA en clínicas
Desde el software líder en gestión de clínicas veterinarias responden a preguntas sobre la seguridad, eficacia y usabilidad de la inteligencia artificial dentro de los centros veterinarios
Redacción -
21-10-2025 - 17:05 H -
min.
Desde Provet Cloud, el software líder en gestión de clínicas veterinarias de Nordhealth, señalan que cada día aparecen más herramientas de inteligencia artificial (IA) en el mercado veterinario, abarcando desde la escritura automática hasta sistemas de apoyo en diagnósticos y gestión de tareas diarias.
“Aunque el marketing llamativo y las promesas exageradas pueden captar la atención de los profesionales, determinar cuáles de estas herramientas merecen la pena y cuáles podrían generar problemas es fundamental para proteger la práctica clínica y la seguridad de los pacientes”, afirman.
A este respecto, desde Provet Cloud han recogido el testimonio de la veterinaria Karen Bolten, que ha dedicado años a evaluar y explorar la IA en medicina veterinaria. Su trabajo se centra en ayudar a las clínicas a distinguir entre la publicidad exagerada y la realidad, y a elegir herramientas que aborden las dificultades clínicas sin comprometer la seguridad.
Según Bolten, cualquier evaluación de la IA debe partir de tres preguntas fundamentales: “Primero, ¿es segura? Segundo, ¿cumple su función? Tercero, ¿es utilizable?”. Así, asegura que “esas son las preguntas más importantes que hay que hacerse”.
En lo que respecta a la seguridad, Bolten advierte que, “en lugares como Estados Unidos, la escasa normativa sobre desarrollo y uso de IA implica que la responsabilidad de proteger los datos recae en el usuario”. Con ello, los desarrolladores no están obligados a cumplir estándares específicos, lo que puede provocar que algunas herramientas manipulen los datos sin conocimiento del usuario.
“He leído políticas que básicamente dicen: Usaremos todos sus datos y los conservaremos para siempre”, recuerda Bolten, destacando la necesidad de leer las políticas de privacidad con atención. Entre las señales de alerta que alega están el cumplimiento voluntario del Reglamento General de Protección de Datos (RGPD) de la Unión Europea (UE), explicaciones claras sobre el manejo de los datos y la opción de optar por no participar en la recopilación de información con fines de capacitación.
Además, Bolten subraya que la eficacia es otra de las cuestiones clave, ya que “la información sobre el entrenamiento de los modelos de IA y la forma en que las empresas miden su rendimiento suele ser limitada”. Por ello explica que “las empresas no suelen revelar cómo entrenan sus modelos de IA. Eso es realmente preocupante, porque no sé qué sesgos podría tener el modelo que utilizo. Necesito saber qué utilizo, como cualquier otro servicio o producto médico”.
“Los profesionales esperan que las herramientas estén clínicamente validadas y que cuenten con estudios revisados por pares, libros blancos, divulgación de datos de capacitación y validación, y discusiones sobre sus limitaciones. La falta de estos datos es una señal de alerta sobre la fiabilidad de la herramienta en la clínica”, destacan desde Provet Cloud.
La tercera pregunta fundamental se centra en la usabilidad. “Incluso la IA más segura y eficaz es inútil si no satisface las necesidades del equipo”, señalan. Por su parte, Bolten recomienda evaluar los problemas específicos de la clínica y buscar herramientas que los aborden.
“Quizás desarrolle algo para mí, que me parezca lógico, pero luego se lo doy a alguien más, y no le parece lógico. ¿Aborda los problemas del usuario? ¿Entienden siquiera cuáles son sus problemas?”, cuestiona. Otros aspectos de la usabilidad incluyen la integración con el software existente, la curva de aprendizaje y la disponibilidad de períodos de prueba para evaluar la compatibilidad.
Además, existen diferencias entre herramientas integradas y soluciones de terceros, cada una con ventajas y limitaciones que deben valorarse en función de los objetivos y recursos de la clínica. “Supongamos que tiene un servicio de terceros que no se integra con su software. ¿El beneficio de ese servicio compensa cualquier esfuerzo necesario para que funcione? A veces la respuesta es sí, a veces no”, subraya Bolten.
“La IA en la medicina veterinaria es un ecosistema en constante evolución, con grandes promesas y posibles riesgos. Los profesionales deben evaluar críticamente cada herramienta, plantear las preguntas correctas y apoyar a las empresas que demuestran transparencia y cumplimiento normativo, garantizando así que la tecnología aporte beneficios reales sin comprometer la seguridad ni la calidad de la atención clínica”, concluyen desde Provet Cloud.