{"id":41075,"date":"2026-04-01T22:51:39","date_gmt":"2026-04-01T20:51:39","guid":{"rendered":"https:\/\/changlonet.com\/blog\/?p=41075"},"modified":"2026-04-01T22:54:47","modified_gmt":"2026-04-01T20:54:47","slug":"buscando-un-minipc-para-ejecutar-modelos-ia-en-local","status":"publish","type":"post","link":"https:\/\/changlonet.com\/blog\/buscando-un-minipc-para-ejecutar-modelos-ia-en-local\/","title":{"rendered":"Buscando un MiniPC para ejecutar modelos IA en local"},"content":{"rendered":"<p>Este a\u00f1os tenemos muchas consultas de clientes preguntando por PCs para ejecutar modelos de IA en local. Con el auge de la IA ag\u00e9ntica y sobre todo con la modal del OpenClaw todas las \u00faltimas consultas van enfocadas a un Apple MacMini o alguna alternativa que no dependa de Apple.<\/p>\n<p>&nbsp;<\/p>\n<p><a href=\"https:\/\/changlonet.com\/blog\/wp-content\/uploads\/2026\/04\/Mac-Mini-o-MiniPC-AMD-o-MIniPC-con-Intel-para-ejecutar-modelos-de-IA-en-local.jpg\"><img fetchpriority=\"high\" decoding=\"async\" style=\"margin-right: auto; margin-left: auto; float: none; display: block; background-image: none;\" title=\"Mac Mini o MiniPC AMD o MIniPC con Intel para ejecutar modelos de IA en local\" src=\"https:\/\/changlonet.com\/blog\/wp-content\/uploads\/2026\/04\/Mac-Mini-o-MiniPC-AMD-o-MIniPC-con-Intel-para-ejecutar-modelos-de-IA-en-local_thumb.jpg\" alt=\"Mac Mini o MiniPC AMD o MIniPC con Intel para ejecutar modelos de IA en local\" width=\"1051\" height=\"575\" border=\"0\" \/><\/a><\/p>\n<p>&nbsp;<\/p>\n<p>As\u00ed que hemos tenido que ir mirando foros, revisiones y art\u00edculos t\u00e9cnicos sobre el asunto para situarnos. Adem\u00e1s tambi\u00e9n hemos contado con la inestimable ayuda de nuestros clientes. De momento no hemos vendido todav\u00eda ning\u00fan miniPC para estas tareas, pero por un lado tenemos algunos clientes usando MacMinis en el trabajo para estas tareas y hemos vendido port\u00e1tiles de AMD o Intel con el mismo hardware que sus MiniPCs y por lo menos con tama\u00f1os de memoria de hasta 32 gigas hemos podido probar algo por nosotros mismos. Sin embargo la otra alternativa para usar IA en local que es emplear equipos con GPUs con la m\u00e1xima RAM posible (o varias GPUs en el mismo PC) si que nos est\u00e1 proporcionando m\u00e1s ventas (dentro de la aton\u00eda en ventas de estos meses provocada por la subida de precios de RAM, discos y gr\u00e1ficas\u2026)<\/p>\n<p>De lo revisado por Internet, os recomiendo este art\u00edculo (originalmente le\u00eddo en Medium, <a href=\"https:\/\/www.mayhemcode.com\/2026\/03\/mac-mini-m4-vs-mini-pc-for-local-llm-in.html\" target=\"_blank\" rel=\"noopener\">pero os pego el enlace gratuito con publicidad<\/a>) lo \u00fanico que faltar\u00eda en ese art\u00edculo es que se centra en los MacMinis y en los MiniPCs con AMD, dejando fuera los micros de Intel que tambi\u00e9n pueden entrar en la comparativa.<\/p>\n<p>La clave de usar estos MinisPCs es el cambio de configuraci\u00f3n de la RAM en estos equipos. En un PC \u201cnormal\u201d la memoria RAM puede estar en los chips de la placa base o en los chips de RAM que est\u00e1n en las tarjetas gr\u00e1ficas. En el caso de que el PC tenga gr\u00e1fica integrada comparte la RAM de la placa base con la del PC, pero con l\u00edmites. Sin embargo en los micros de la seria M de Apple y en los Ryzen AI y los Intel Panther Lake AI, la memoria RAM es la misma tanto para el procesador como para la gr\u00e1fica. De hecho la gr\u00e1fica puede usar casi todo la RAM para ella. Ello nos permite contar con sistemas con 32 gigas de RAM a un precio menor que el de una gr\u00e1fica nVidia con 32 gigas de RAM. Y poder subir a 64, 96 o 128 gigas con unos precios \u201casequibles\u201d frente a la opci\u00f3n de las GPUs con esa RAM o sistemas multiGPU.<\/p>\n<p>Y para hacerlo m\u00e1s dulce hay modelos (en Apple los MacMini M4 todos) donde la RAM va dentro del SOC donde est\u00e1n la CPU y la GPU, esto proporciona mayor velocidad para la RAM y menor latencia. Algunos Intel Core de la serie 3 tambi\u00e9n incluyen la RAM en el SOC. Esto que por un lado es una ventaja, por otro nos impide ampliar la RAM si en el futuro queremos correr modelos de IA que necesiten mayor espacio de memoria.<\/p>\n<p>A la hora de decantarse por una de las tres soluciones hay que contrapesar las ventajas y los inconvenientes de cada una:<\/p>\n<ul>\n<li>Si nos interese aumentar la RAM en el futuro, la opci\u00f3n de AMD es la mejor situada, ya que permite ampliar la RAM y \u00e9sta ser\u00eda m\u00e1s econ\u00f3mica que en Apple o Intel.<\/li>\n<li>En estabilidad y facilidad de configuraci\u00f3n, Apple va delante. La integraci\u00f3n de la RAM unificada tiene m\u00e1s tiempo en Apple y su ecosistema cerrado lo favorece tambi\u00e9n.<\/li>\n<li>Si en un momento dado podr\u00edamos necesitar una GPU m\u00e1s potente con los MiniPCs podr\u00edamos hacerlo mediante una gr\u00e1fica externa<\/li>\n<li>Si buscamos la m\u00e1xima eficiencia energ\u00e9tica Apple proporciona la mejor relaci\u00f3n entre consumo\/potencia. Esto tambi\u00e9n se ve reflejado en menos ruido.<\/li>\n<li>Si alguien necesitase para alguna herramienta Windows los MiniPCs ser\u00edan su elecci\u00f3n.<\/li>\n<\/ul>\n<p>Y ya es cuesti\u00f3n de que cada uno valore los pros y los contras de las tres plataformas. En estos momentos la de Intel promete, pero la veo la m\u00e1s verde. Apple la veo la m\u00e1s asentada, pero con precios m\u00e1s elevados y la necesidad de comprar ya con la RAM adecuada. Y entre las dos tendr\u00edamos a AMD m\u00e1s madura que la Intel y con mejor precio por la RAM.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Este a\u00f1os tenemos muchas consultas de clientes preguntando por PCs para ejecutar modelos de IA en local. Con el auge de la IA ag\u00e9ntica y sobre todo con la modal del OpenClaw todas las \u00faltimas consultas van enfocadas a un Apple MacMini o alguna alternativa que no dependa de Apple. &nbsp; &nbsp; As\u00ed que hemos [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":41077,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"footnotes":""},"categories":[4316,4318,4319,5698,5700,8],"tags":[5888,5889,217,277,1442,2454],"series":[],"class_list":["post-41075","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tarjetas-graficas","category-procesadores","category-memoria-ram","category-ia","category-hardware-ia","category-hardware","tag-ia-local","tag-mac-mini","tag-amd","tag-apple","tag-intel","tag-ryzen-9"],"_links":{"self":[{"href":"https:\/\/changlonet.com\/blog\/wp-json\/wp\/v2\/posts\/41075","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/changlonet.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/changlonet.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/changlonet.com\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/changlonet.com\/blog\/wp-json\/wp\/v2\/comments?post=41075"}],"version-history":[{"count":0,"href":"https:\/\/changlonet.com\/blog\/wp-json\/wp\/v2\/posts\/41075\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/changlonet.com\/blog\/wp-json\/wp\/v2\/media\/41077"}],"wp:attachment":[{"href":"https:\/\/changlonet.com\/blog\/wp-json\/wp\/v2\/media?parent=41075"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/changlonet.com\/blog\/wp-json\/wp\/v2\/categories?post=41075"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/changlonet.com\/blog\/wp-json\/wp\/v2\/tags?post=41075"},{"taxonomy":"series","embeddable":true,"href":"https:\/\/changlonet.com\/blog\/wp-json\/wp\/v2\/series?post=41075"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}