Inleiding
Ik ben zeker geen expert op het gebied van diffusion models. LLMs gebruik ik dagelijks en bij steeds meer taken, maar Stable Diffusion, Midjourney en Dall-E zijn voor mij minder bekend. Daarom misschien wat ‘late to the party’, maar het recent aangekondigde Flux.1 model heeft toch m’n aandacht getrokken. Met name door de positieve reacties binnen de AI wereld. Daarom toch even kort aan het experimenteren geweest en moet zeggen dat ik erg onder de indruk ben! In deze blog mijn eerste ervaringen met Flux.1, met een specifieke focus op een leuk aspect: het genereren van afbeeldingen met leesbare tekst. Tot voor kort was dit een uitdaging voor veel text-to-image modellen, maar Flux.1 gaat het goed af.
Eenvoudig aan de slag met Replicate
Voordat we duiken in de prompts en resultaten, wil ik even stilstaan bij een van de vele simpele manieren om met Flux.1 aan de slag te gaan zonder over zware GPU’s te beschikken. Ik heb hiervoor gebruik gemaakt van Replicate. Hier's hoe je snel kunt beginnen:
- Maak een virtuele omgeving en installeer Replicate's Python client library:
pip install replicate
- Stel je API-token in via
.env
of een simpele export:
export REPLICATE_API_TOKEN=r8_dH3**********************************
- Importeer de client in je Python-script:
import replicate
- Voer het model uit met een eenvoudige Python-code:
output = replicate.run(
"black-forest-labs/flux-dev",
input={
"prompt": "Steampunk-stijl koperen buizen die de letters \\"JAN WILLEM\\" vormen, met stoom die uit de verbindingen ontsnapt. Verweerde industriële achtergrond, zachte verlichting, gedetailleerde texturen.",
"guidance": 3.5,
"num_outputs": 1,
"aspect_ratio": "1:1",
"output_format": "webp",
"output_quality": 80,
"prompt_strength": 0.8,
"num_inference_steps": 50
}
)
print(output)
Met deze setup ben je klaar om te beginnen met experimenteren. Hieronder wat leuke voorbeelden van mijn kant:
Voorbeelden:
Mocht je meer verstand van de materie hebben of gave voorbeelden hebben, ben ik erg benieuwd!
-JW