Trend Micro Incorporated heeft zijn partnerschap met GMI Cloud aangekondigd. Deze samenwerking is erop gericht de beveiligingsmaatregelen voor AI-implementaties te verbeteren en gevoelige gegevens in krachtige computeromgevingen te beschermen. Ter ondersteuning van een verantwoord gebruik van AI heeft de onderneming ook aangekondigd dat het zich heeft aangesloten bij de Coalition for Secure AI (COSAI), samen met partners als Google, NVIDIA, Microsoft en IBM.
Voortbouwend op een lange geschiedenis van samenwerking met partners om klanten te helpen, werkt Trend nauw samen met innovatieve partners zoals GMI Cloud, dat heeft gestandaardiseerd op het Trend Vision One? platform om zijn klanten te beschermen met behulp van AI. De integratie van Trend Vision One - Companion, een AI-assistent die gebruikmaakt van NVIDIA NIM microservices en versneld computergebruik, in de Cluster Engine-interface van GMI Cloud zorgt voor proactieve detectie van en respons op bedreigingen, zelfs in omgevingen met luchtafschermingen.
Trend heeft al in een vroeg stadium een definitieve verklaring afgelegd over verantwoord gebruik van AI en werkt ook samen met de bredere branche en heeft gepleit voor beleid voor verantwoord gebruik en regulering van AI. De Coalition for secure AI (COSAI) richt zich op samenwerking tussen leden en het delen van best practices voor veilige AI-implementatie, AI-beveiligingsonderzoek en productontwikkeling. Na zijn toetreding tot de coalitie deze week is het eerste initiatief van Trend als COSAI-lid om cyberverdedigers voor te bereiden op een veranderend cyberbeveiligingslandschap.
Hiertoe zal Trend het voortouw nemen bij de ontwikkeling van een raamwerk voor helpders om: Vast te stellen welke investeringen nodig zijn om de offensieve cyberbeveiligingsmogelijkheden van huidige en toekomstige AI-modellen tegen te gaan. Geschikte mitigatietechnieken in te zetten en best practices te handhaven. Het raamwerk zal zich ook richten op hoe organisaties investeringen in cyberbeveiliging kunnen opschalen en effectieve risicobeperkingsstrategieën kunnen uitbreiden om de evolutie van AI-modellen aan te pakken die het gebruik van offensieve capaciteiten door bedreigers ondersteunen.