{"id":1460,"date":"2025-09-14T09:00:00","date_gmt":"2025-09-14T09:00:00","guid":{"rendered":"https:\/\/cloudlab.urv.cat\/catedracloud\/?p=1460"},"modified":"2026-02-04T23:11:02","modified_gmt":"2026-02-04T23:11:02","slug":"del-dicho-al-hecho-como-saber-si-tu-ia-te-esta-enganando","status":"publish","type":"post","link":"https:\/\/cloudlab.urv.cat\/catedracloud\/2025\/09\/14\/del-dicho-al-hecho-como-saber-si-tu-ia-te-esta-enganando\/","title":{"rendered":"Del dicho al hecho&#8230; C\u00f3mo saber si tu IA te est\u00e1 enga\u00f1ando"},"content":{"rendered":"\n<p>Los modelos de inteligencia artificial (IA) generativa, como GPT o Gemini, se han colado en nuestro d\u00eda a d\u00eda. Los usamos para redactar correos, planificar vacaciones o incluso para resolver crucigramas, con una fe casi ciega en sus respuestas. Sin embargo, nadie nos garantiza que todo lo que responden sea verdad.<\/p>\n\n\n\n<p>Es probable que te hayas encontrado con alguna respuesta extra\u00f1a, un dato incorrecto o una invenci\u00f3n descarada. En el argot tecnol\u00f3gico, a esto se le conoce como una &#8220;alucinaci\u00f3n&#8221; de la IA. No es que el modelo mienta a prop\u00f3sito, sino que, queriendo dar una respuesta coherente, a veces &#8220;rellena los huecos&#8221; con informaci\u00f3n que parece coherente pero que no es real.<\/p>\n\n\n\n<p>Por detr\u00e1s, los modelos ofrecen una funcionalidad similar al predictor de palabras de servicios como WhatsApp, pero dopada. Son muy h\u00e1biles y potentes en calcular cu\u00e1l es la siguiente palabra m\u00e1s probable en una frase, hasta completar toda una respuesta. Por supuesto, y como vemos d\u00edas a d\u00eda, este m\u00e9todo es incre\u00edblemente eficaz, pero no infalible.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Creando un &#8220;Verificador&#8221; autom\u00e1tico<\/h2>\n\n\n\n<p>\u00bfC\u00f3mo podemos construir IAs m\u00e1s fiables? Una de las soluciones m\u00e1s utilizadas es, curiosamente, usar una IA para vigilar a otra IA. El concepto se inspira en las &#8220;pruebas interactivas&#8221;. Imagina un interrogatorio:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>El &#8220;Probador&#8221; (la IA principal):<\/strong> Da una respuesta a tu pregunta.<\/li>\n\n\n\n<li><strong>El &#8220;Verificador&#8221; (una segunda IA o sistema):<\/strong> En lugar de aceptar la respuesta sin m\u00e1s, la desaf\u00eda. Le pide pruebas, fuentes o que razone su respuesta paso a paso.<\/li>\n<\/ol>\n\n\n\n<p>Este &#8220;ping-pong&#8221; digital obliga a la primera IA a justificar su afirmaci\u00f3n, descomponiendo su razonamiento en partes m\u00e1s peque\u00f1as y f\u00e1ciles de verificar. Si el &#8220;Probador&#8221; no puede defender su afirmaci\u00f3n con datos coherentes, el &#8220;Verificador&#8221; marca la respuesta como poco fiable.<\/p>\n\n\n\n<p>Para entenderlo mejor, veamos un caso pr\u00e1ctico. Imagina que le preguntas a una IA: <em>&#8220;\u00bfQui\u00e9n fue el primer emperador romano que visit\u00f3 Britania?&#8221;<\/em><\/p>\n\n\n\n<p><strong>IA Principal (Probador):<\/strong> Podr\u00eda responder r\u00e1pidamente: <em>&#8220;Julio C\u00e9sar fue el primer emperador romano en visitar Britania.&#8221;<\/em><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Esta respuesta es un error com\u00fan y una &#8220;alucinaci\u00f3n&#8221; cl\u00e1sica: mezcla dos hechos ciertos (C\u00e9sar visit\u00f3 Britania, fue un l\u00edder romano) para crear una conclusi\u00f3n falsa (no era emperador).<\/li>\n<\/ul>\n\n\n\n<p><strong>IA Verificadora:<\/strong> En lugar de dar por buena la respuesta, la descompone y la contrasta:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>Afirmaci\u00f3n 1:<\/strong> &#8220;Julio C\u00e9sar fue un emperador romano&#8221;. <strong>VERIFICACI\u00d3N:<\/strong> Falso. El primer emperador fue Augusto.<\/li>\n\n\n\n<li><strong>Afirmaci\u00f3n 2:<\/strong> &#8220;Julio C\u00e9sar visit\u00f3 Britania&#8221;. <strong>VERIFICACI\u00d3N:<\/strong> Cierto, realiz\u00f3 expediciones en el 55 y 54 a.C.<\/li>\n\n\n\n<li><strong>Pregunta de correcci\u00f3n:<\/strong> \u00bfQu\u00e9 emperador romano visit\u00f3 entonces Britania por primera vez? <strong>B\u00daSQUEDA:<\/strong> El emperador Claudio fue quien lider\u00f3 la conquista y visit\u00f3 la isla en el 43 d.C.<\/li>\n<\/ol>\n\n\n\n<p><strong>Respuesta final corregida:<\/strong> Tras este proceso, el sistema puede ofrecer una respuesta mucho m\u00e1s precisa: <em>&#8220;Aunque Julio C\u00e9sar realiz\u00f3 expediciones a Britania, no era considerado emperador. El primer emperador romano que visit\u00f3 la isla fue Claudio, durante la invasi\u00f3n del 43 d.C.&#8221;<\/em><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Detectando mentiras mediante la l\u00f3gica<\/h2>\n\n\n\n<p>Otro enfoque complementario es comprobar que la l\u00f3gica interna de la respuesta sea s\u00f3lida mediante<a href=\"https:\/\/towardsdatascience.com\/interactive-proofs-with-claude\/\"> verificadores formales<\/a>.  Es como un corrector ortogr\u00e1fico, pero para la coherencia. Estos sistemas se entrenan con las reglas fundamentales de la l\u00f3gica y el razonamiento. Cuando la IA genera una respuesta compleja, el sistema de razonamiento la analiza en busca de contradicciones o saltos l\u00f3gicos. Por ejemplo, si una IA dijera: &#8220;Todos los p\u00e1jaros pueden volar. El ping\u00fcino es un p\u00e1jaro, por lo tanto, el ping\u00fcino puede volar&#8221;, el sistema detectar\u00eda inmediatamente la falacia l\u00f3gica.<\/p>\n\n\n\n<p>Por ejemplo, Amazon Web Services (AWS) ha integrado recientemente estas comprobaciones de <a href=\"https:\/\/aws.amazon.com\/it\/blogs\/aws\/minimize-ai-hallucinations-and-deliver-up-to-99-verification-accuracy-with-automated-reasoning-checks-now-available\/\" data-type=\"link\" data-id=\"https:\/\/aws.amazon.com\/it\/blogs\/aws\/minimize-ai-hallucinations-and-deliver-up-to-99-verification-accuracy-with-automated-reasoning-checks-now-available\/\"><strong>razonamiento automatizado<\/strong> en su plataforma <strong>Bedrock<\/strong><\/a>. Por si no lo conoces, Bedrock es un servicio que permite a los desarrolladores construir aplicaciones de IA generativa utilizando modelos de diferentes compa\u00f1\u00edas (incluyendo los de la propia Amazon, Anthropic o Meta) de una forma sencilla y segura.<\/p>\n\n\n\n<p>Ahora el desarrollador cloud puede programar opcionalmente una verificaci\u00f3n automatizada de las respuestas de la IA. El sistema comprueba que la respuesta sea &#8220;fiel&#8221; a la informaci\u00f3n de origen (por ejemplo, a los documentos que se le han proporcionado para el an\u00e1lisis) y que no contenga contradicciones l\u00f3gicas internas. Este proceso de &#8220;auto-supervisi\u00f3n&#8221; permite a los desarrolladores a\u00f1adir una capa de fiabilidad a sus aplicaciones con un simple ajuste, asegurando que las respuestas de la IA sean coherentes antes de llegar al usuario.<\/p>\n\n\n\n<p>La capacidad de verificar y validar las respuestas de una IA es uno de los mayores retos para que esta tecnolog\u00eda sea verdaderamente \u00fatil y segura en campos cr\u00edticos como la medicina o las finanzas. La pr\u00f3xima vez que le pidas algo a un chatbot, recuerda que detr\u00e1s de esa simple respuesta hay quien trabaja para asegurarse de que no te est\u00e1 contando un cuento.<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Los modelos de inteligencia artificial (IA) generativa, como GPT o Gemini, se han colado en nuestro d\u00eda a d\u00eda. Los usamos para redactar correos, planificar vacaciones o incluso para resolver crucigramas, con una fe casi ciega en sus respuestas. Sin embargo, nadie nos garantiza que todo lo que responden sea verdad. Es probable que te [&hellip;]<\/p>\n","protected":false},"author":7,"featured_media":1461,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_uag_custom_page_level_css":"","_swt_meta_header_display":false,"_swt_meta_footer_display":false,"_swt_meta_site_title_display":false,"_swt_meta_sticky_header":false,"_swt_meta_transparent_header":false,"footnotes":""},"categories":[39],"tags":[],"class_list":["post-1460","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ia"],"jetpack_featured_media_url":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/09\/mentira_ia.png","uagb_featured_image_src":{"full":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/09\/mentira_ia.png",1024,1024,false],"thumbnail":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/09\/mentira_ia-150x150.png",150,150,true],"medium":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/09\/mentira_ia-300x300.png",300,300,true],"medium_large":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/09\/mentira_ia-768x768.png",768,768,true],"large":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/09\/mentira_ia.png",1024,1024,false],"1536x1536":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/09\/mentira_ia.png",1024,1024,false],"2048x2048":["https:\/\/cloudlab.urv.cat\/catedracloud\/wp-content\/uploads\/2025\/09\/mentira_ia.png",1024,1024,false]},"uagb_author_info":{"display_name":"Germ\u00e1n Telmo Eizaguirre Su\u00e1rez","author_link":"https:\/\/cloudlab.urv.cat\/catedracloud\/author\/geizaguirre\/"},"uagb_comment_info":0,"uagb_excerpt":"Los modelos de inteligencia artificial (IA) generativa, como GPT o Gemini, se han colado en nuestro d\u00eda a d\u00eda. Los usamos para redactar correos, planificar vacaciones o incluso para resolver crucigramas, con una fe casi ciega en sus respuestas. Sin embargo, nadie nos garantiza que todo lo que responden sea verdad. Es probable que te&hellip;","_links":{"self":[{"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/posts\/1460","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/comments?post=1460"}],"version-history":[{"count":4,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/posts\/1460\/revisions"}],"predecessor-version":[{"id":1465,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/posts\/1460\/revisions\/1465"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/media\/1461"}],"wp:attachment":[{"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/media?parent=1460"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/categories?post=1460"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cloudlab.urv.cat\/catedracloud\/wp-json\/wp\/v2\/tags?post=1460"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}