GBT Technologies Inc. evalueert het gebruik van een geavanceerd NLP-algoritmemodel om de menselijke interactie in zijn AI-gebaseerd adviessysteem voor de gezondheidszorg te verbeteren. Het Text-To-Text Transfer Transformer (T5) model introduceert een efficiënte technologie om een grote verscheidenheid aan gesuperviseerde Natural Language Processing (NLP) taken uit te voeren, zoals classificatie, Q&A en samenvatten. De meeste van de nieuwe deep learning NLP-modellen zijn zeer groot en bevatten een groot aantal parameters. Normaal gesproken geldt: hoe groter het NLP-model, hoe meer leervermogen het heeft, maar een van de belangrijkste nadelen is de enorme dataset die de algemene prestaties kan verminderen. Het geavanceerde NLP-algoritmemodel wordt beschouwd als een van de meest geavanceerde, krachtige NLP-algoritmen die een groot aantal parameters omvat, aanzienlijk minder geheugen gebruikt en een hoge nauwkeurigheid biedt. GBT zal het T5, voorgetrainde model evalueren met het doel het te gebruiken in haar Hippocrates adviessysteem voor de gezondheidszorg, waarbij Q/A, tekst, samenvattingen en samengestelde commonsense kennis worden verwerkt. Het model maakt meer parallelle verwerking mogelijk dan methoden als Recurrent Neural Network (RNN) en Convolutional Neural Network (CNN), waardoor het gegevensbegrip en de redeneermogelijkheden aanzienlijk toenemen. Zo is het T5-model in staat woorden samen te verwerken in plaats van woord voor woord van een gegeven tekst. Aangezien het mondiale datarijk in de nabije toekomst naar schatting zettabytes zal bereiken, zal deep learning computing krachtige verwerkingscapaciteiten nodig hebben om gegevens te begrijpen en te onderzoeken, met name in het enorme, ongestructureerde NLP-domein. Het systeem is ontworpen om te functioneren als een algemeen gezondheid Q/A adviessysteem, dat eerstelijns gezondheidsgerelateerd advies geeft.