Zillow geeft zijn open-source Fair Housing Classifier vrij, die vangrails maakt om verantwoordelijk en onbevooroordeeld gedrag te bevorderen in onroerend goed conversaties die worden aangedreven door large language model (LLM) technologie. Veel AI-tools negeren de vereisten voor eerlijke huisvesting en kunnen, wanneer ze worden ingezet, vooroordelen in stand houden en de vooruitgang ondermijnen die is geboekt bij het pleiten voor eerlijke huisvesting. De Fair Housing Classifier van Zillow richt zich op het beperken van het risico van illegale sturing -- de praktijk van het beïnvloeden van de keuze van een koper voor een bepaalde gemeenschap op basis van de wettelijk beschermde kenmerken van de koper onder de federale wetgeving.

De Fair Housing Classifier werkt als een beschermende maatregel, om meer rechtvaardige gesprekken met AI-technologie aan te moedigen. Het detecteert vragen die kunnen leiden tot discriminerende antwoorden over wettelijk beschermde groepen in vastgoedervaringen, zoals zoekopdrachten of chatbots. De classificator identificeert gevallen van niet-naleving in de invoer of de uitvoer, en laat de beslissing om in te grijpen over aan de systeemontwikkelaars.

De beslissing om de Fair Housing Classifier als open-source aan te bieden, onderstreept Zillow's inzet voor transparantie, gelijkheid en eerlijke huisvesting in onroerend goed. Organisaties die de Fair Housing Classifier willen gebruiken, hebben toegang tot de code en het uitgebreide raamwerk op GitHub. Vertrouwde partners die willen bijdragen aan de classifier en deze willen verbeteren, kunnen contact opnemen via het e-mailadres op de GitHub-pagina, waar ze toegang kunnen vragen tot trainingsgegevens en een voorgetraind model, nadat ze een echte use case hebben voorgelegd.

Deze transparantie is de sleutel tot het aanmoedigen van bijdragen om het model te verbeteren. Verbeteringen aan de Fair Housing Classifier kunnen worden ingediend via het standaard aanvraagproces op GitHub.