Elastic heeft Search AI Lake aangekondigd, een cloud-native architectuur die als eerste in zijn soort geoptimaliseerd is voor realtime toepassingen met een lage latentie, zoals zoeken, retrieval augmented generation (RAG), observeerbaarheid en beveiliging. Het Search AI Lake voedt ook het nieuwe Elastic Cloud Serverless-aanbod, dat operationele overhead wegneemt om workloads automatisch te schalen en te beheren. Met de uitgebreide opslagcapaciteit van een data lake en de krachtige zoek- en AI-relevantiemogelijkheden van Elasticsearch levert Search AI Lake queryprestaties met een lage latentie zonder in te leveren op schaalbaarheid, relevantie of betaalbaarheid.

De voordelen van Search AI Lake zijn onder andere: Grenzeloze schaalbaarheid, losgekoppelde compute en storage: De volledige ontkoppeling van opslag en computer maakt moeiteloze schaalbaarheid en betrouwbaarheid mogelijk door gebruik te maken van objectopslag, dynamische caching ondersteunt een hoge doorvoer, frequente updates en interactieve query's op grote datavolumes. Hierdoor is het niet meer nodig om indexeringsbewerkingen over meerdere servers te repliceren, waardoor de indexeringskosten lager worden en er minder gegevens gedupliceerd hoeven te worden. Real-time, lage latency: Meerdere verbeteringen zorgen voor uitstekende queryprestaties, zelfs wanneer de gegevens veilig worden opgeslagen in object stores.

Dit omvat de introductie van smart caching en queryparallellisatie op segmentniveau om de latentie te verlagen door gegevens sneller op te halen en meer aanvragen snel te kunnen verwerken. Onafhankelijk schalen van indexeren en query's: Door indexeren en zoeken op een laag niveau te scheiden, kan het platform onafhankelijk en automatisch schalen om aan de behoeften van een breed scala aan werklasten te voldoen. GAI-geoptimaliseerde inferentie en vectorzoeken: Gebruikers kunnen gebruik maken van een native pakket krachtige AI-mogelijkheden voor relevantie, retrieval en reranking, waaronder een native vectordatabase die volledig is geïntegreerd in Lucene, open inferentie-API's, semantisch zoeken en transformatormodellen van eerste en derde partijen, die naadloos samenwerken met de reeks zoekfuncties.

Krachtige query's en analyses: De krachtige querytaal van Elasticsearch, ES|QL, is ingebouwd om onderzoeken te transformeren, te verrijken en te vereenvoudigen met snelle gelijktijdige verwerking, ongeacht de gegevensbron en -structuur. Volledige ondersteuning voor nauwkeurig en efficiënt zoeken in volledige tekst en tijdreeksanalyses om patronen te identificeren in geospatiale analyses zijn ook inbegrepen. Inheemse machine learning: Gebruikers kunnen direct op alle gegevens machine learning bouwen, implementeren en optimaliseren voor superieure voorspellingen.

Voor beveiligingsanalisten kunnen vooraf opgestelde regels voor bedreigingsdetectie eenvoudig worden toegepast op historische informatie, zelfs jaren terug. Ook kunnen modellen zonder supervisie bijna-realtime anomaliedetecties achteraf uitvoeren op gegevens over veel langere perioden dan andere SIEM-platforms. Echt gedistribueerd - regio-overschrijdend, cloud of hybride: Doorzoek gegevens in de regio of het datacenter waar ze zijn gegenereerd via één interface. Cross-cluster search (CCS) vermijdt de noodzaak om te centraliseren of synchroniseren.

Dit betekent dat elk gegevensformaat binnen enkele seconden na opname wordt genormaliseerd, geïndexeerd en geoptimaliseerd om extreem snel query's en analyses uit te voeren. Dit alles terwijl de kosten voor gegevensoverdracht en opslag worden verlaagd. Search AI Lake werkt met een nieuw Elastic Cloud Serverless-aanbod dat de snelheid en schaal van de innovatieve architectuur benut om operationele overhead te verwijderen, zodat gebruikers snel en naadloos workloads kunnen starten en schalen.

Alle operaties, van monitoring en back-up tot configuratie en omvang, worden beheerd door Elastic - gebruikers brengen gewoon hun gegevens mee en kiezen voor Elasticsearch, Elastic Observability of Elastic Security op Serverless.