Akamai Technologies, Inc. kondigt de beschikbaarheid aan van Content Protector, een product dat aanvallen van scrapers tegenhoudt zonder het goede verkeer te blokkeren dat bedrijven nodig hebben om hun bedrijf te verbeteren. Scraperbots zijn een kritisch en vaak productief onderdeel van het handelsecosysteem. Deze bots zoeken naar nieuwe inhoud, markeren producten op vergelijkingssites en verzamelen bijgewerkte productinformatie om met klanten te delen.

Helaas worden scrapers ook gebruikt voor schadelijke doeleinden, zoals concurrerende onderbieding, bewaking voor aanvallen voor het hamsteren van voorraden en het namaken van goederen en websites. Scrapers pingen ook 24 uur per dag, 7 dagen per week websites, tenzij ze worden gestopt, zodat ze de prestaties van websites kunnen verminderen, wat op zijn beurt consumenten frustreert en ervoor zorgt dat ze hun bezoeken staken.

Bovendien zijn scrapers de afgelopen jaren veel ontwijkender en geavanceerder geworden. Akamai Content Protector helpt bij het detecteren en beperken van ontwijkende scrapers die inhoud stelen voor kwaadaardige doeleinden. Het maakt verbeterde siteprestaties, een verbeterde gebruikerservaring en bescherming van intellectueel eigendom mogelijk, terwijl het aanzienlijk betere detecties en minder fout-negatieven mogelijk maakt zonder het percentage fout-positieven te verhogen.

Het product is ontworpen voor bedrijven die hun reputatie en inkomstenpotentieel moeten beschermen. Het biedt detecties op maat, waaronder Beoordeling op protocolniveau: Protocol fingerprinting controleert hoe bezoekers verbinding maken met uw site om er zeker van te zijn dat ze legitiem zijn. Het evalueert hoe de client de verbinding met de server tot stand brengt op de verschillende lagen van het OSI-model (Open Systems Interconnection) ?

Er wordt gecontroleerd of de parameters waarover onderhandeld wordt overeenkomen met de parameters die verwacht worden van de meest voorkomende webbrowsers en mobiele toepassingen. Beoordeling op applicatieniveau: Evalueert of de client bepaalde bedrijfslogica kan uitvoeren die in JavaScript is geschreven. Wanneer de client JavaScript uitvoert, worden de apparaat- en browserkenmerken en gebruikersvoorkeuren verzameld.

Deze verschillende gegevenspunten worden vergeleken en getoetst aan de gegevens op protocolniveau om de consistentie te controleren. Gebruikersinteractie: Analyseert gebruikersinteracties om onderscheid te maken tussen menselijk en botverkeer. Het beoordeelt hoe gebruikers omgaan met apparaten zoals aanraakschermen, toetsenborden en muizen, en identificeert bots door hun gebrek aan interactie of abnormale gebruikspatronen.

Gebruikersgedrag: Monitort het gedrag van bezoekers op uw website om ongebruikelijke patronen te identificeren die op bots duiden. Risicoclassificatie: Biedt een deterministische en bruikbare classificatie van het verkeer met een laag, gemiddeld of hoog risico, gebaseerd op de afwijkingen die tijdens de evaluatie zijn gevonden.