Les sites d’informations hi-tech se sont récemment émus de l’utilisation, par Airbnb, d’un algorithme destiné à scanner ses utilisateurs sur les réseaux sociaux afin de déterminer s’ils présentent des risques (psychopathie, consommation de drogue, liens avec la prostitution, mais aussi, plus classiquement, forte émotivité ou narcissisme).
L’IA serait particulièrement efficace pour identifier nos petites failles, et son utilisation à grande échelle s’inscrirait dans la politique de fermeté que la plateforme veut adopter face aux comportements à risque, aux loueurs ou voyageurs dangereux, aux fêtes incontrôlables se terminant parfois en bain de sang – les scandales à répétition étant en train de ruiner l’image de marque d’Airbnb. L’affaire a été découverte suite à la publication d’un brevet pour cet algorithme devant l’Office Européen des Brevets.
Pour autant, utiliser un tel algorithme serait piétiner à peu près toutes les lois sur la protection de la vie privée – le RGPD, bien évidemment, mais même des législations plus laxistes comme celle des Etats-Unis. Il s’agit d’une forme d’espionnage en bonne et due forme. Attaqué sur ce sujet, Airbnb a eu une réponse merveilleuse : la plateforme a reconnu qu’elle possédait bien ce brevet et cet algorithme, suite au rachat de la start-up Trooly Inc en 2017. Mais la plateforme le jure, le promet, le garantit : elle assure «ne pas utiliser l’algorithme mentionné dans le brevet».
Comme toujours avec Airbnb, vous n’êtes obligé de croire son équipe de communication…