Confluent, Inc. kondigt de Confluent First Quarter 22 Launch aan, met nieuwe toevoegingen aan het grootste portfolio van volledig beheerde datastreaming connectoren in de industrie, nieuwe controles voor het kosteneffectief schalen van massive-throughput Apache Kafka clusters, en een nieuwe functie om vertrouwde datakwaliteit over wereldwijde omgevingen te helpen behouden. Deze innovaties maken eenvoudige, schaalbare en betrouwbare datastreaming in het hele bedrijf mogelijk, zodat elke organisatie de realtimeactiviteiten en klantervaringen kan leveren die nodig zijn om succesvol te zijn in een wereld waarin digitalisering voorop staat. Voor veel organisaties blijven realtime gegevens echter buiten bereik. Gegevens bevinden zich in silo's, opgesloten in verschillende systemen en applicaties, omdat het maanden duurt om integraties tot stand te brengen en er aanzienlijke middelen nodig zijn om deze te beheren. Bovendien is het aanpassen van de streamingcapaciteit aan de voortdurend veranderende bedrijfsbehoeften een complex proces dat kan resulteren in buitensporige uitgaven voor infrastructuur. Ten slotte is het waarborgen van datakwaliteit en compliance op wereldwijde schaal een gecompliceerde technische prestatie, waarbij doorgaans nauwe coördinatie tussen teams van Kafka-experts vereist is. Confluents nieuwste connectoren omvatten Azure Synapse Analytics, Amazon DynamoDB, Databricks Delta Lake, Google BigTable, en Redis voor een verhoogde dekking van populaire databronnen en bestemmingen. Alleen beschikbaar op Confluent Cloud, Confluents portfolio van meer dan 50 volledig beheerde connectoren helpt organisaties krachtige streaming applicaties te bouwen en data portabiliteit te verbeteren. Deze connectoren, ontworpen met Confluents diepgaande Kafka expertise, bieden organisaties een eenvoudige weg naar het moderniseren van datawarehouses, databases, en data lakes met real-time data pipelines: Datawarehouse connectoren: Snowflake, Google BigQuery, Azure Synapse Analytics, Amazon Redshift Database connectoren: MongoDB Atlas, PostgreSQL, MySQL, Microsoft SQL Server, Azure Cosmos DB, Amazon DynamoDB, Oracle Database, Redis, Google BigTable Data lake connectoren: Amazon S3, Google Cloud Storage, Azure Blob Storage, Azure Data Lake Storage Gen 2, Databricks Delta Lake Om real-time inzicht in de gezondheid van applicaties en systemen te vereenvoudigen, heeft Confluent eersteklas integraties met Datadog en Prometheus aangekondigd. Met een paar klikken, hebben operators diepere, end-to-end zichtbaarheid in Confluent Cloud binnen de monitoring tools die ze al gebruiken. Dit biedt een eenvoudiger middel om eventuele problemen te identificeren, op te lossen en te voorkomen, terwijl kostbare tijd vrijkomt voor al het andere dat hun werk vereist. Om ervoor te zorgen dat de diensten altijd beschikbaar blijven, zijn veel bedrijven gedwongen om over-provision capaciteit voor hun Kafka clusters, het betalen van een hoge prijs voor overtollige infrastructuur die vaak ongebruikt blijft. Confluent lost dit veel voorkomende probleem op met Dedicated clusters die on-demand kunnen worden voorzien met slechts een paar klikken en self-service controls bevatten voor zowel het toevoegen als verwijderen van capaciteit op de schaal van GBps + throughput. Capaciteit is eenvoudig aan te passen op elk gewenst moment via de Confluent Cloud UI, CLI, of API. Met automatische data balancering, optimaliseren deze clusters voortdurend de data plaatsing om de belasting te balanceren zonder extra inspanning. Bovendien, minimum capaciteit beveiligingen beschermen clusters tegen worden gekrompen tot een punt onder wat nodig is om actief verkeer te ondersteunen. In combinatie met Confluents nieuwe Load Metric API, kunnen organisaties weloverwogen beslissingen nemen over wanneer de capaciteit uit te breiden en wanneer in te krimpen met een real-time overzicht van het gebruik van hun clusters. Met dit nieuwe niveau van elastische schaalbaarheid, kunnen bedrijven hun hoogste doorvoer workloads draaien met een hoge beschikbaarheid, operationele eenvoud en kostenefficiëntie. Wereldwijde datakwaliteitscontroles zijn van cruciaal belang voor het behoud van een uiterst compatibele Kafka-implementatie die geschikt is voor langdurig, gestandaardiseerd gebruik binnen de organisatie. Met Schema Linking beschikken bedrijven nu over een eenvoudige manier om betrouwbare datastromen te onderhouden in cloud- en hybride omgevingen met gedeelde schema's die in realtime synchroniseren. In combinatie met Cluster Linking worden schema's overal gedeeld waar ze nodig zijn, waardoor op eenvoudige wijze een hoge gegevensintegriteit kan worden gehandhaafd terwijl use cases worden geïmplementeerd, waaronder het wereldwijd delen van gegevens, clustermigraties en voorbereidingen voor realtime failover in het geval van noodherstel.