Intro
Ik heb een lightweight shell scriptje gemaakt voor het verbeteren van mijn interacties met LLMs.
tl;dr: File2md neemt een lijst van bestanden en mappen uit je project, verwerkt deze volgens jouw specificaties en genereert een Markdown-bestand met de inhoud in codeblokken. De output wordt automatisch naar je klembord gekopieerd, klaar om mee te geven aan een LLM voor context.
🔗 github code hier
Hoewel AI systemen steeds beter geïntegreerd zijn in onze besturingssystemen, IDE’s, browsers en alle andere plekken waar we werken, zie ik mezelf toch nog regelmatig context kopiëren in een AI chatwindow. Metname wanneer de bestanden die ik wil meesturen in verschillende folders op mijn computer staan en het een groot aantal kleinere bestanden betreft kost me dit veel tijd.
Om die reden wou ik graag een tooltje hebben waarmee ik op een efficiente en precieze manier context uit verschillende bronnen met een LLM kon delen. In plaats van een diepe integratie zocht ik een lightweight transparant tooltje dat me helpt met een duidelijke taak:
Zo snel en exact mogelijk de juiste context verzamelen uit verschillende bronnen, zodat ik deze kan meegeven in mijn prompt.
Mijn voorlopige oplossing voor dit probleem is file2md.
Waarom file2md naast geïntegreerde AI-tools?
Er zijn tegenwoordig krachtige AI-geïntegreerde ontwikkeltools zoals Cursor, Windsurf en Claude Code. Toch zijn er in mijn ervaring nogsteeds situaties waarin het handig kan zijn om een gecherrypickte context mee te geven in een LLM request. Denk aan situaties waarin je een nieuw model wilt gebruiken dat niet in deze tools beschikbaar is. Ook vind ik het vaak prettig om duidelijke controle te hebben over de context die ik meegeef bij een bepaalde vraag, en als laatste vind ik het fijn om die controle via de terminal te hebben.
Het is geen revolutionair idee, maar gewoon een praktisch hulpmiddel dat voor mij goed werkt naast de meer geavanceerde AI-tools.
Bekijk het script in de Github repo, of bekijk de map met specifieke gebruiksvoorbeelden