De strategie is vrij eenvoudig: als het kan helpen moet je het gebruiken (wij zijn ook maar een klein team/bedrijf, dus da’s makkelijker). Zo bvb bij softwareontwikkeling, het team waar ik verantwoordelijk voor ben, zijn tools zoals copilot zo goed als standaard (verplicht) omdat ze (naar mijn mening) een bewezen nut en voordeel hebben.
Wat in de praktijk wel blijkt en bij velen het verschil tussen succes en falen is:
Developer specifiek: het succes van autocomplete wordt bepaald door de kwaliteit en consistentie van de code. Het spijt me, maar als de auto-complete suckt, is het niet onwaarschijnlijk dat je codebase ook wat “riekt”.
Algemeen: prompts schrijven is een “skill” die je moet leren en alles valt of staat daar mee. De meeste mensen die copilot of ander AI tools niet handig vinden, of zeggen dat de resultaten tegenvallen, schrijven gewoon slechte prompts. Dus training op dat vlak is essentieel en ik besefte pas zelf na training hoe het een verschil kan maken (terwijl ik ook een developer was die dacht dat ik het wel allemaal kon ). Dus als je als bedrijf een strategie bouwt, denk dan ook aan opleiding in die context. Normaal geef je mensen geen enkele tool zonder opleiding, doe dat dus ook hier niet.
Tip 1: als uw prompt één zin is in een “blanco” omgeving gaat het niet werken. LLM zijn statistische modellen, hoe breder je start, hoe sneller het uitwaaiert. Hoe concreter je bent, hoe beter de resultaten. Trouwens, dat is niet anders wanneer je taken aan mensen toekent. AI is geen magie… het is een tool die je moet sturen.
Tip 2: (uit veel ervaring): probeer ook eens te prompten in je eigen taal. Zeker als software mensen denken we dat vloeiend en vlot engels praten omdat dat nu eenmaal vaak de voertaal is en/of omdat men denkt dat LLMs zoals Claude/Gpt/Gemini enkel maar “engelse” instructies goed begrijpen. Dat is niet waar… en trouwens uw engels is niet zo goed als je wel denkt (sorry) en LLMs zijn bijzonder goed in vertalen. Dus vaak werkt een (goede) prompt beter in je moedertaal omdat je daar beter beschrijft wat je wil, en die taalmodellen beter “vertalen” dan jezelf (dat is ook de reden waarom één van de meest gebruikte functies van ChatGPT vertalen en teksten verbeteren is) en dus een uitkomst geven die beter aansluit bij wat je wil.
WimPi slaat hier de nagel op de kop. Zelf ook developer, kan niet meer zonder. We mogen wel in principe alleen copilot gebruiken voor code. Het bedrijf wilt dat onze code “private” blijft en dat zegt toch Microsoft dat het zo is…
Gebruik wel andere LLM’s voor andere opzoekingen en zo juist begonnen met opencode gelinkt naar copilot om wat uitgebreidere taken te laten doen.
wat technische details:
Ik hou bijvoorbeeld niet van _ in private fields, opencode heeft dit voorzien dat dit geforceerd wordt in .editorconfig, code gezocht die underscores in fields hadden en deze zelfstandig laten aanpassen. git branch/commit en push is ook gedaan. Allees de creatie van de PR werkt (nog) niet met azure devops
Ik werk voor een groot industrieel bedrijf waar AI een belangrijke rol speelt. We hebben een speciaal AI-team dat een interne versie van “ChatGPT” heeft ontwikkeld. In dit systeem kun je kiezen welk model je wilt gebruiken en aangeven of je vertrouwelijke informatie wilt meenemen. De AI is bovendien getraind op onze interne wiki, waardoor het vragen over het bedrijf en onze processen kan beantwoorden.
Het werkt behoorlijk goed en we mogen het voor vrijwel alles gebruiken. Daarnaast wordt er intern ook veel geëxperimenteerd met eigen AI-toepassingen, de zogenaamde “shadow AI”.
Ik werk in een startup waar geen specifieke strategie is.
Gebruik wat je wilt maar gebruik je gezond verstand om geen geheime documenten zomaar ergens te uploaden.
Er is een Claude abonnement voor het team (zonder claude code, dat is €100 extra?!).
Zelf heb ik een abonnement op Windsurf (het alternatief voor Cursor), ik nam het omdat ik meer dan een jaar de gratis extensie gebruikte en tevreden over was.
Ik moet zeggen dat ik er zeker nog niet alles uithaal. Het blijft relatief beperkt tot goede autocomplete en wat vage errors uitleggen.
In een startup moet alles snel dus ik heb niet meteen de tijd om tijdens de uren te prutsen.
Na de uren met te veel verschillende projecten bezig waardoor het er ook niet van komt.
Als iemand tips heeft voor Windsurf, Cursor of andere, laat het zeker weten dan maak ik er eens tijd voor
Persoonlijk heb ik geen chatbot abonnement en gebruik ik de gratis varianten door elkaar.
dan kan je gewoon inloggen in je github account, en daarna je model kiezen. Was wel effe zoeken naar een model dat werkt, want opencode stelt claude enzo voor, maar dat werkt niet. Momenteel met gpt5.
Dan in je repo directory gaan, daar opencode opstarten, het eerste dat je dan doet is /init en dan maakt die een agents.md file aan.
En dan daarna gewoon wat zaken gevraagd. Was aan een nieuwe stuk bezig dat ergens in de src in directory ‘bbb’ zit, gevraagd. Daar dan gevraagd om een technisch overzicht te maken van de code. Heeft dan een readme.md aangemaakt, er stond er al eentje.
Hij vroeg moet ik die mergen?
Dus dat ging allemaal vlot, nu nog wat uitzoeken wat het nog allemaal kan
dienstenbedrijf voor zelfstandigen: standaardregels als “enkel copilot”, geen klantgegevens in AI tools,…
en sinds deze week ook een AI training van phised.io
Ik werk bij een heel bekend IT-bedrijf. Alles moet tegenwoordig wijken voor AI – zeker alle backofficefuncties gaan tegenwoordig stevig onder de AI-hamer.
Maar we hebben wel een super interne AI-tool – deze combineert alle populaire versies in één chatvenster: Claude, Gemini en OpenAI met al hun sub-versies.
Afhankelijk van de vraag die je stelt, kiest hij het juiste model om een antwoord te genereren.
Een tweede sterk punt is dat hij interne databases en externe bronnen kan raadplegen via een deep research feature – zonder eigen IP zomaar op straat te gooien. Deze is extreem omwald en staat toe om hoog vertrouwelijke documenten en data te gaan uploaden.
Zeer impressionant en levert heel goede resultaten.
Kwam onlangs deze AI-policy van Button tegen (content design events + community resources). Wat ik er goed aan vind, zijn de duidelijke doelstelling (namelijk het beschermen van de intellectuele eigendom van sprekers) en de concrete restricties op opnames en AI-gebruik om dat te realiseren.
Ik werk niet bij Button, maar heb hun policy wel als basis gebruikt voor een event dat ik help organiseren.