Van losse renders naar productie — één avond, drie tools

Vibe coding · Door Peter · 3 min leestijd
Van losse renders naar productie — één avond, drie tools

De shift van losse AI-renders naar een consistente productie-pipeline.

Vanavond begon met een mail. Niet ingewikkeld, gewoon dat bekende probleem: AI-beelden zien er goed uit, maar het wordt geen serie. Licht verschilt, achtergrond verschilt, elke run voelt anders. Op zichzelf klopt het, maar samen niet. Gewoon geen productie.

Dus eerst weer het logische pad. Zappa erbij, prompts strakker trekken, minder ruimte laten. Daar zat al veel in — 310 regels prompt-discipline, vijf modules, alles locked. Je denkt dat het daarin zit. Maar ergens op de avond komt dat punt dat het begint te irriteren. Je blijft draaien en corrigeren, en elke run is weer net anders. En dan voel je: dit ga ik hier niet oplossen.

Daar zat de shift.

Niet meer proberen het vóór de generatie perfect te krijgen, maar accepteren dat Higgsfield elke keer opnieuw begint. Dus dat stuk blijft bewegen, wat je ook doet. Vanaf daar werd het gewoon praktisch. Beelden blijven draaien en kijken waar het misgaat. Niet op smaak maar op gedrag. Waar verschuift het licht, waar verandert de achtergrond, waar breekt het.

Tegelijk Claude erbij gepakt — niet om prompts te schrijven, maar om technisch mee te denken. Wat kun je ná generatie nog doen zonder opnieuw te genereren? Daar kwam Replicate in beeld. Nieuw voor mij, vanavond ontdekt. Een platform waar open-source AI-modellen draaien op andermans GPU's, aanroepbaar via API. Niet als vervanger van Higgsfield, maar voor één ding: masking. Het model loshalen van de achtergrond via rembg, een AI-model dat een alpha masker genereert — pixel voor pixel bepaalt wat model is en wat achtergrond.

En daar viel het kwartje.

Want dat masker geeft je controle. Je bent niet meer afhankelijk van hoe Higgsfield z'n studio opbouwt. Je kunt zelf ingrijpen. Achtergrond uniform trekken, licht stabiliseren. Niet mooier maken, maar consistent maken.

Technisch werkt het zo: het masker scheidt voorgrond van achtergrond, maar niet binair — haarpixels zitten ertussenin, semi-transparant. Een harde knip geeft kleurrandjes in het haar. De oplossing is zachte alpha-blending: elke pixel wordt gewogen gemengd tussen origineel en getint. Haar op alpha 0.4 krijgt een subtiele mix in plaats van een harde kleurgrens. Dat was het verschil tussen "ziet er bewerkt uit" en "ziet er studio uit".

Daarbovenop: texture-versterking voor stofdetail, sharpness voor randen, en twee automatische crops op basis van waar het model staat in het beeld. Full body op 1060×1280 ratio, knie-aangesneden op 65% modelhoogte. Alles server-side via Sharp, alles in één API call.

De reference-logica voor Higgsfield hebben we ook vastgelegd. Strikte scheiding: eerste beeld is het gezicht (identity lock), dan kleding (vrijstaand, product only), laatste beeld alleen voor pose en expressie. Geen blending tussen rollen. Als je dat niet expliciet afdwingt in je prompt, mixt Higgsfield alles door elkaar. Die prompt staat nu kopieerbaar op de pagina.

En dat is waar het vanavond veranderde. Niet één beeld, maar de serie. Het begint bij elkaar te blijven. Het voelt niet meer als losse renders, maar als één setting.

De keten is nu: Zappa genereert de prompt vanuit een referentiebeeld. Higgsfield maakt het beeld met gescheiden referenties. Post-productie trekt het geheel recht — masking, tint, texture, crops. Drie tools, één pipeline, gebouwd en geïntegreerd in één avond.

De hele post-productie module draait nu als demo in Zappa. Upload je Higgsfield beeld, stel je achtergrondkleur in, en je hebt studio-klare uitsnedes.

Dit is nog niets. Eerste proto. Maar dit is ook ver van waar we begonnen, want vanochtend had ik dit niet. En juist dat maakt het interessant — nu begint het pas.

Peter
Peter
Creative Directors
Oprichters van Studio PB.NL met 20 jaar ervaring in fashion, e-commerce en AI-gedreven innovatie. Samen bouwen we aan de toekomst van creatieve technologie.