MongoDB, Inc. kondigt de algemene beschikbaarheid aan van MongoDB Atlas Vector Search on Knowledge Bases voor Amazon Bedrock om organisaties in staat te stellen eenvoudiger generatieve AI-toepassingsfuncties te bouwen met behulp van volledig beheerde foundation models (FM's). MongoDB Atlas is 's werelds meest beschikbare dataplatform voor ontwikkelaars en biedt mogelijkheden voor vectordatabases waardoor organisaties hun realtime operationele data naadloos kunnen gebruiken om generatieve AI-toepassingen aan te drijven. Amazon Bedrock is een volledig beheerde service van Amazon Web Services (AWS) die via één enkele API een keuze biedt uit hoogwaardige FM's van toonaangevende AI-bedrijven, samen met een brede set mogelijkheden die organisaties nodig hebben om generatieve AI-toepassingen te bouwen met beveiliging, privacy en verantwoorde AI.

Klanten in verschillende sectoren kunnen nu de integratie met hun eigen gegevens gebruiken om eenvoudiger toepassingen te maken die generatieve AI gebruiken om autonoom complexe taken uit te voeren en om actuele, nauwkeurige en betrouwbare antwoorden te geven op verzoeken van eindgebruikers. Dankzij de nieuwe integratie met Amazon Bedrock kunnen organisaties sneller en eenvoudiger generatieve AI-toepassingen op AWS implementeren die kunnen reageren op gegevens die verwerkt zijn door MongoDB Atlas Vector Search om nauwkeurigere, relevantere en betrouwbaardere antwoorden te geven. In tegenstelling tot add-on oplossingen die alleen vectordata opslaan, voedt MongoDB Atlas Vector Search generatieve AI-toepassingen door te functioneren als een zeer performante en schaalbare vectordatabase met het extra voordeel dat het geïntegreerd is met een wereldwijd gedistribueerde operationele database die alle data van een organisatie kan opslaan en verwerken.

Klanten kunnen de integratie tussen MongoDB Atlas Vector Search en Amazon Bedrock gebruiken om FM's, zoals grote taalmodellen (LLM's) van AI21 Labs, Amazon, Anthropic, Cohere, Meta, Mistral AI en Stability AI, privé aan te passen met hun real-time operationele gegevens door deze te converteren naar vector embeddings voor gebruik met LLM's. Met behulp van Agents for Amazon Bedrock voor retrieval-augmented generation (RAG) kunnen klanten vervolgens toepassingen bouwen met LLM's die reageren op zoekopdrachten van gebruikers met relevante, gecontextualiseerde antwoorden?zonder handmatig te hoeven coderen. Een detailhandelsorganisatie kan bijvoorbeeld gemakkelijker een generatieve AI-toepassing ontwikkelen die autonome agenten gebruikt voor taken als het verwerken van real-time voorraadaanvragen of het helpen personaliseren van retourzendingen en omruilingen door automatisch voorraadartikelen voor te stellen op basis van feedback van klanten. Organisaties kunnen ook hun generatieve AI-workloads isoleren en schalen, onafhankelijk van hun core operationele database met MongoDB Atlas Search Nodes om kosten en prestaties te optimaliseren met tot 60 procent snellere querytijden.

Met volledig beheerde mogelijkheden stelt deze nieuwe integratie gezamenlijke AWS- en MongoDB-klanten in staat om generatieve AI met hun bedrijfseigen gegevens veilig en volledig te gebruiken binnen een organisatie, en om sneller bedrijfswaarde te realiseren?met minder operationele overhead en handmatig werk.