|

BIG BROTHER - La plateforme serait capable d'écarter les personnes qui appartiennent à groupes Facebook douteux ou qui écrivent des insultes sur les réseaux sociaux.

Quand on loue son logement sur Airbnb, on n'est jamais à l'abri d'une mauvaise surprise. En juin 2019 à Paris, une personne qui avait sous-loué son appartement de 80 m2 a hébergé malgré elle, une fête de 200 personnes.

Pour remédier à ce genre de désagrément et éviter de tomber sur des locataires mal-intentionnés, la plateforme a mis au point en 2017 une intelligence artificielle capable de repérer les profils malveillants.

Passer les réseaux sociaux au peigne fin

En quoi consiste cette technologie ? Comme nous l'apprend le média Evening Standard (article en anglais), le logiciel passe au peigne fin l'ensemble des réseaux sociaux à la recherche des traits de personnalité de la personne ciblée par l'enquête. Groupes Facebook, photos sur Instagram, rien ne lui échappe !

Mais l'intelligence artificielle (IA) va encore plus loin et pénalise les personnes qui utilisent de faux profils, sont familiers d'insultes sur Internet ou même celles qui ont un petit penchant pour les sites pornographiques. Par ailleurs, les photos de consommation d'alcool ne jouent pas en la faveur de l'individu.

Avec toutes ces informations, le logiciel est capable d'écarter de calculer la compatibilité entre le locataire et le loueur, et d'écarter les profils à risques.

Une technologie utile certes, mais qui pourrait ouvrir la porte à de nombreuses discriminations. Fort heureusement, comme le précise Evening Standard, Airbnb affirme qu'elle n'a jamais eu recours à cette intelligence et qu'elle n'existe pour l'heure que sous forme de brevet.

Et si vous souhaitez mettre votre logement sur Airbnb, découvrez les règles à connaître avant de vous lancer.