Slechts 5% van de AI projecten in de praktijk verdient de investering terug blijkt uit een onderzoek van MIT. Bij de projecten die wel geslaagd zijn is vaak kenmerkend dat er bottom-up geexperimenteerd is met AI, waarbij de meest nuttige use cases opgeschaald zijn in grotere projecten. Echter wordt dit vrije experimenteren steeds lastiger voor organisaties. Data veiligheid is een grote zorg omdat AI-bedrijven zoals OpenAI vaak trainen op de chat data van gebruikers. Dit heeft al tot enkele datalekken gelekt zoals recentelijk bij de gemeente Eindhoven. Daarnaast zijn er met regelgeving zoals de Europose AI Act steeds meer beperkingen op AI gebruik. Voor compliancy worden vaak enterprise abbonementen afgesloten bij AI leveranciers zoals OpenAI, Google of Microsoft. Echter brengt dit hoge kosten met zich mee. De meeste abbonementen zijn rond de 25 euro per medewerker per maand. Daarnaast zijn er steeds meer zorgen over de afhankelijkheid van deze grote bedrijven.
Profound Chats
Daarom hebben wij Profound Chats ontwikkeld. Dit is een app waarmee je chatten met verschillende AI modellen, afbeeldingen genereren, audio inspreken, bestanden uploaden en zoeken op het internet. Ook kunnen we hiermee samenwerken en kennis delen in onze organisatie. In plaats van 5 abbonementen hebben we nu dezelfde AI functies op een plek en houden we controle over onze bedrijfsdata.

Een variatie aan modellen is nodig
De AI wereld kent enorm veel competitie. Er worden elke week wel nieuwe modellen uitgerolt die beter zijn in een bepaalde taak. En er is geen bedrijf die de beste modellen heeft voor elke taak. Zo heeft het bedrijf Anthropic doorgaans de beste modellen voor programmeren, Elevenlabs voor audio, en recentelijk Google voor video. Deze verschillen zullen waarschijnlijk alleen maar toenemen. Het is daarom belangrijk om de nieuwste modellen te kunnen gebruiken en van verschillende providers.
Vendor lock in creëert afhankelijkheid
Echter hebben de meeste providers het liefste dat je klant blijft bij hen. Het is daarom ook niet makkelijk om te wisselen. Je verliest bijvoorbeeld je chats, of je afbeeldingen. Met Profound Chats beheren we zelf onze chats op onze eigen server. Zo kunnen we altijd van model wisselen zonder onze data te verliezen.
Compliance is lastig met big tech
Daarnaast stelt dit ons in staat om onze data te beschermen. We staan onze chatdata veilig op binnen Europa en in eigen beheer met controle over retentie. Zo wordt er geen data opgeslagen bij de grote AI providers die vaak in Amerika gevestigd zijn. Het is zelfs mogelijk om de verwerking binnen de kantoor muren te laten plaatsvinden met kleine lokale modellen. Hiermee voldoen we aan AI- en privacywetgeving.
Kostencontrole: weg van abonnementen
Daarnaast zijn we niet meer gebonden aan de abonnementsvorm van licenties. Waar we voorheen 5 abonnementen af moesten sluiten om de beste modellen te gebruiken, betalen we nu op basis van gebruik. Dit maakt het experimenteren met modellen een stuk laagdrempeliger. Een organisatie waarin mensen nog weinig gebruik maken van AI kunnen zo met lage kosten wel veilig gebruik maken van AI modellen.
Een basis voor verdere innovatie
Een eigen systeem is niet enkel een alternatief voor een abonnement op diensten zoals ChatGPT. Naast een externe server kan Profound Chats ook worden uitgerold op een lokale server. Dit biedt mogelijkheden tot maatwerk integraties met je eigen systemen. Bijvoorbeeld automatisch bedrijfsbestanden beschikbaar stellen zodat je met AI kan zoeken in je bestanden. Of automatisch vergaderingen laten samenvatten. De mogelijkheden tot integraties en automatiseringen zijn enorm.