Categoría: AISEED Updates

  • Curso de Introducción a la IA + Midjourney completo en Youtube

    Curso de Introducción a la IA + Midjourney completo en Youtube

    Durante 2025 trabajé con estudios de arquitectura e interiorismo incorporando inteligencia artificial dentro de sus flujos reales de proyecto. En ese contexto apareció una conclusión clara: la mayoría de los problemas con la IA no tienen que ver con la tecnología, sino con la falta de criterio para usarla.

    En paralelo, también voy viendo los videos y tutoriales de IA, enfocados sólo en el uso para a obtener resultados rápidos, impacto visual inmediato o simplemente likes. Cuestiono ese enfoque: cuando la IA se presenta como atajo, como truco o como «no te quedes afuera», se vacía de sentido dentro de una disciplina que trabaja con ideas, procesos y responsabilidad proyectual.

    La clave, entonces, no está en dominar más herramientas ni en perseguir cada actualización, sino en entender los procesos reales de los estudios. Saber cuándo tiene sentido usar IA, en qué etapas del proyecto, con qué nivel de control y con qué intención. Por eso decidimos grabar un curso completo de Midjourney para Arquitectura e Interiorismo y subirlo a Youtube para promover el método AISEED.

    Link al curso completo en Youtube

    El video ordena conceptos básicos sobre qué es la IA y cómo impacta específicamente en la forma en que diseñamos. Recién a partir de esa base entramos en la generación de imágenes con Midjourney, cómo construir prompts con intención, cómo usar imágenes de referencia sin perder autoría y cómo combinar texto e imagen para explorar ideas.

    El objetivo de publicar este bloque de forma abierta es para que la metodología AISEED esté al alcance de cualquiera que quiera entenderla, validarla, cuestionarla y opinar. Que el criterio no sea un contenido cerrado, sino una base común desde la cual empezar a pensar, debatir y mejorar cómo usamos IA en arquitectura e interiorismo.

    Este curso funciona como una base conceptual sólida para profesionales independientes y equipos pequeños que quieren formarse con criterio y sin atajos. AISEED sigue siendo un training presencial para equipos, pero este bloque abierto es el punto de partida: ordena lenguaje, decisiones y mirada crítica. Si querés conocer el método AISEED y aprender a usar Midjourney con criterio, conciencia estética y sentido de autoría, el curso ya está disponible en YouTube.

  • Nuevas suites de IA: hacia dónde va la industria

    Nuevas suites de IA: hacia dónde va la industria

    Pasamos de herramientas aisladas a suites completas que empiezan a comportarse como una infraestructura creativa, un territorio donde todo se integra. En este post un poco más técnico, les explico como funcionan.

    Imágenes generadas con Midjourney v3 (2023)

    Las primeras IA, hace unos años en 2022, eran complejas de usar: Midjourney en un chat de Discord, Stable Diffusion corriendo localmente, ComfyUI lleno dependencias que había que configurar a mano. Cada herramienta comenzó a ser utilizable y testeable pero eran interfaces demasiado técnicas. Gratuitas y accesibles porque necesitaban trafico para entrenar sus modelos, pero para usarlas había que atravesar procesos de instalación bastante complejos.

    A fines de 2024 las plataformas dieron un salto: Midjourney, Runway, PromeAI, Krea entre otras, lanzaron webs limpias y fáciles de usar directamente desde el navegador. El avance fue enorme, pero también generó una nueva incomodidad: diez pestañas abiertas, suscripciones en 10 IA diferentes y la sensación de que pasábamos más tiempo aprendiendo herramientas nuevas que utilizandolas para nuestro trabajo.

    Midjorney en el navegador v6 (2024) Diseño mejorado y facilidad de uso.

    La segunda mitad de 2025 aparecen estas suites como Freepik, Weavy, Artlist, incluso Krea ha tomado este camino, que no compiten con las herramientas de IA sino que las unen en una sola plataforma. Desde un solo entorno podemos acceder a modelos LLM como ChatGPT o Gemini. Generar imágenes con Nano Banana, Flux y Seedream, que son las más potentes hasta la fecha (Diciembre 2025). Y tambén video con Google Veo3, Kling, Runway todo dentro de un mismo sistema. Una suscripción equivale a un pool de créditos que vamos utilizando a medida que generamos contenido con diferentes herramientas dentro de la suite.

    Spaces de Freepik, sistema automatizado de nodos que genera prompts + Imagenes consistentes.

    Además, Freepik como Weavy y Krea permiten crear pipelines completos con nodos, algo impensado hace un año: automatizar procesos con IA, generar variaciones de producto editables, producir contenido para marketing o diseñar sistemas repetibles para estudios de arquitectura e interiorismo. La IA deja de ser una herramienta para un trabajo puntual y podemos automatizar tareas que se repiten proyecto a proyecto manteniendo nuestros criterios.

    En este panorama aparece una excepción: Midjourney que no abrió su API, no permite ser integrada en estas suites, preservando su rol como laboratorio creativo, como espacio para la exploración de ideas, narrativas y atmósferas. En el método AISEED, Midjourney nos da identidad estética y dirección conceptual, las otras plataformas cubren lo demás: refinamiento preciso en materiales, renderizado, postproducción técnica. Es un modelo de complementariedad más que de competencia.

    Midjourney sigue siendo lo mejor para la fase de exploración creativa

    Este nuevo ecosistema beneficia directamente al enfoque AISEED, porque ordena un flujo que antes estaba disperso. Hoy podemos estructurar el proceso con mucha más claridad: Midjourney + nuestro Prompt Builder para la fase exploratoria, y las suites para convertir esa intención en un sistema de producción visual coherente.

    Mientras la complejidad técnica se esconde y la interfaz se vuelve cada vez más amigable, el desafío no es dominar todas las herramientas, sino tener criterio para dirigirlas. Las suites ordenan, conectan y amplifican; el diseñador sigue siendo quien decide qué mostrar, qué ocultar y hacia dónde llevar la creación. La autoría es el diferencial más valioso y eso es lo que trabajamos en AISEED Training desde el principio.

  • Automatización de generación de contenido con IA + Tutorial !!

    Automatización de generación de contenido con IA + Tutorial !!

    Si miramos para atrás, mi primer trabajo que para Breex Drinks fue casi artesanal. Hace más de 1 año, Midjourney funcionaba en Discord, no aceptaba referencias y no existía la edición de imagen. Pero nos manteníamos muy creativos, generábamos imágenes con latas blancas, las recortábamos y les pegábamos la etiqueta a mano. Y lo gracioso es que estábamos felices: era rápido, era novedoso y nos abría mundos visuales que antes requerían horas de producción.

    Hoy ese proceso “mágico” dejó de ser suficiente. Las marcas hoy necesitan volumen, consistencia y velocidad. No solo imágenes aisladas. Necesitan sistemas de contenido. Y lo que empezó como un juego se transformó en un laboratorio: ¿qué pasaría si pudiéramos automatizar la generación visual de contenido que mire un producto, parámetros de marca y más?

    Eso nos llevó a Weavy, una plataforma que funciona como un Grasshopper para IA: nodos conectados, cada uno haciendo una parte del proceso. Los diseñadores computacionales lo entendemos al instante. Antes parametrizábamos geometrías; ahora parametrizamos nodos de IA, uno lee la marca, otro genera prompts, otro produce la imagen, otro escribe el texto, otro valida consistencia, y el último entrega un paquete cerrado listo para publicar. Es un concepto que una vez que se entiende, todo se puede editar.

    Aquí puedes ver el tutotial de Weavy con la automatización para BREEX

    En el caso de Breex el desafío era, que el modelo haga imágenes de la lata cambiando escenarios, personajes, luz, clima, ángulos… pero la coherencia visual tenía que sostenerse. Ese fue el criterio que guió el árbol completo. Y lo interesante es que no partimos de cero: partimos del ejercicio muy manual de “lata blanca + etiqueta”, y lo convertimos en un sistema. Lo que antes era un proceso largo que incluía la imagen generada con IA, pero había que hacer los prompts uno por uno, luego editar en Photoshop, ahora es una estructura capaz de generar 20 variaciones distintas con 1 clic, literal.

    Weavy tiene algo que para mí es clave: permite integrar múltiples IA dentro de un mismo flujo, usando créditos centralizados. Eso te da flexibilidad para elegir modelos según consistencia, velocidad o estética. En paralelo armé un tutorial completo en YouTube mostrando el proceso desde cero. No para “enseñar Weavy”, sino para mostrar cómo se piensa una automatización creativa: cómo se ancla un concepto, cómo se decide qué debe ser controlado y qué debe ser libre, cómo se mezcla criterio humano con la plasticidad de los modelos.

    Les dejo un REEL que hicimos con todo este contenido, generando animaciones a partir de las frames.

    Con AI SEED venimos trabajando cada vez más este tipo de flujos, como parte del proceso creativo de estudios, marcas y equipos que necesitan velocidad sin perder autoría. Nos obliga a pensar qué parte del trabajo queremos automatizar y qué parte queremos seguir haciendo a mano, nuestra creatividad sigue siendo el eje conductor. En este caso pasamos de “usar IA” a “construir sistemas con IA”.

  • Workflow AISEED completo: del concepto al render y de ahí a la animación.

    Workflow AISEED completo: del concepto al render y de ahí a la animación.

    Este es uno de los Workflows que vemos dentro de los Trainings: explorar, dibujar, renderizar y animar. En este caso el diseño de un Stand que combina casi todas las IA del método AI SEED.

    La secuencia empieza con ChatGPT para construir el marco conceptual del stand: estética, materiales, lenguaje visual, referencias y palabras clave para los prompts. Después pasamos a Midjourney para generar direcciones visuales iniciales: volúmenes, atmósferas, iluminación y variantes rápidas. Es en esta etapa donde multiplicamos ideas y donde encontramos la identidad visual del proyecto. Con esa base generamos una imagen guía que después usamos para continuar el workflow.

    La segunda etapa es la transición del dibujo a mano al render. Un sketch en iPad o un pantallazo de una volumetría 3d básica funciona como input para PromeAI, que convierte líneas básicas en una imagen con lenguaje arquitectónico que se nutre también de nuestras referencias anteriores con Midjourney. Luego esa imagen se refina en Photoshop con IA generativa para mejorar definición y materiales. Este proceso evita modelar una escena completa y permite llegar a un render creíble en pocas iteraciones. Con nuestro dibujo convertimos una idea conceptual en un espacio donde ya damos dimensiones, proporciones y ubicamos objetos.

    Pueden ver aquí una parte del proceso en el post de Linkedin

    La tercera etapa es la animación. A partir de la imagen final usamos NanoBanana de Google para generar imágenes que nos sirvan de Frames iniciales y Finales a partir de nuestro render: Le pedimos que convierta el Stand en una construcción y también que le quite todos los productos y personas. Esta IA es la más consistente para realizar modificaciones dentro del mismo contexto, como pueden ver a continuación.

    Ahora que tenemos nuestras 3 imágenes podemos pasar a Midjourney finalmente para generar 2 videos. El primero empieza con la construcción y termina con el Stand vacío y el segundo empieza con el final del primero y termino con el render final. Además hay que hacer un prompt que mencione algunas palabras como «timelapse effect, construction animation, fast motion people» . Ya con esos 2 videos podemos armar la animación final. El workflow completo resume la filosofía AI SEED: combinar herramientas, mantener criterio y avanzar desde la idea hasta una presentación final aportando toda nuestra creatividad.

  • Charla en Barcelona Design Week 2025

    Charla en Barcelona Design Week 2025

    AISEED x OFFBDW2025 fue una oportunidad para mostrar, sin filtros, cómo los estudios están empezando a usar la IA y qué preguntas reales aparecen cuando se la integra en la práctica diaria.

    El enfoque de la charla no fue técnico ni futurista, sino práctico. Mostramos cómo la IA se puede incorporar en etapas previas al modelado: desde construir narrativas visuales hasta definir atmósferas antes de pasar al 3D. Compartimos Workflows reales y completos de exploración conceptual, prototipado de ideas y refinamiento visual, siempre bajo el criterio del método AI SEED: pensar con claridad, curar con intención y no perder autoría en ningún momento del proceso.

    Puedes ver la Grabación de la charla aquí.

    Lo más interesante fue ver cómo reaccionó la audiencia, más de 50 personas frente a la idea de que la IA no hace magia, sino que ofrece nuevas posibilidades dentro del trabajo creativo. Muchos profesionales comentaron que sus equipos estaban probando IA de manera aislada, sin método, y que esa falta de estructura generaba resultados inconsistentes. Precisamente por eso AI SEED existe: para ordenar el flujo de herramientas y convertirlo en algo aplicable.

    La charla cerró con una reflexión que sintetiza la mirada de AISEED: la IA es potente cuando la acompaña un profesional criterioso, formado y con la capacidad de no ser dominado por la IA. Y su mayor valor no está en la imagen final, sino en cómo transforma la forma en la que exploramos conceptos y tomamos decisiones de diseño.