L’apprentissage automatique ne se suffit pas à lui seul !

Les nouvelles technologies innovantes, telles que l’intelligence artificielle et l’apprentissage automatique, ouvrent des possibilités totalement nouvelles pour les banques et les caisses d’épargne, surtout, dans leur interaction avec les clients. Mais malgré toute cette euphorie, les gens ne doivent pas et ne devraient pas être laissés de côté. Parce qu’elles ne fonctionnent pas à eux seules mais, nécessitent constamment une décision humaine.   

L’apprentissage machine ne s’auto-suffit pas

Depuis longtemps, les auteurs de science-fiction ont été fascinés par l’idée qu’une machine pourrait prendre le contrôle du monde. Et ils réfléchissent à ce qui pourrait être fait pour sauver le monde de cette prise de contrôle. Mais cette idée est très éloignée de la réalité. En fait, nous savons maintenant que les machines et l’apprentissage machine fonctionnent mieux lorsque l’intelligence humaine est impliquée. Plus précisément, lorsqu’elles soutiennent les humains dans leurs tâches au lieu de travailler contre eux. En conséquence, l’apprentissage machine sert donc d’aide à la décision de facto. Cela est particulièrement visible, car plus efficace, notamment, dans le domaine de la gestion des risques et de la conformité.

Même dans l’environnement de la fraude, l’apprentissage machine n’a de sens que, si la technologie est utilisée pour soutenir les décisions humaines. Les modèles sont capables de détecter les comportements déviants, mais il faut encore des humains pour étudier le problème potentiel par la suite. Après tout, même un comportement apparemment étrange peut avoir un fondement rationnel. Il est vrai que les modèles d’apprentissage par machine peuvent difficilement détecter la fraude organisée à grande échelle. Mais, la fraude à petite échelle, c’est-à-dire les petites actions individuelles de fraude, fait également des dégâts. Et de nombreuses entreprises voient déjà un grand avantage à pouvoir découvrir rapidement les actions frauduleuses prévues par leurs employés, comme l’évaluation automatisée des photos des dommages causés aux voitures, par exemple.

De plus, l’évaluation d’un risque de crédit standard nécessite un jugement humain pour savoir si le modèle appliqué est vraiment significatif. Si ce n’est pas le cas, un système d’apprentissage automatique risque à lui seul d’apprendre des choses non pertinentes. Est-ce que vous vous souvenez du chatbot Tay de Microsoft ? C’est pourquoi, la raison humaine est toujours nécessaire pour que la machine, qui dit non, ne devienne pas la réponse standard dans un environnement peu enclin au risque. Bien que cela nécessite de meilleures compétences en sciences des données. C’est essentiel si l’apprentissage machine doit être utilisé plus largement. En fin de compte, les gens et donc l’entreprise tout entière devraient toujours comprendre pourquoi une décision doit être prise.

Créer la bonne culture du risque

Il est évident que les machines sont capables de traiter d’énormes quantités de données. Aussi, elles sont idéales pour étudier ces montagnes d’informations, y découvrir des modèles et faire des prévisions sur le comportement futur. C’est une condition préalable et idéale pour l’évaluation et la gestion des risques. Après tout, les risques dépendent généralement du comportement : des employés, des clients ou même des criminels. Cependant, les modèles statistiques, sous-jacents, ne fonctionnent que, si la bonne culture du risque est en place dans l’entreprise.

Par exemple, Prenez Behavox, une start-up dans le secteur des services financiers, utilise des algorithmes d’apprentissage automatique pour étudier les données relatives aux commerçants malhonnêtes et autres malfaiteurs et ainsi que pour découvrir des modèles de comportement. Sur la base des modèles identifiés, les institutions financières sont alors en mesure de traquer les fraudeurs potentiels avant qu’ils ne deviennent des criminels. Ce type d’autorégulation nécessite un réseau suffisamment vaste, reliant les banques et les autres institutions. Il y a cependant deux obstacles à cette compréhension. Premièrement, les entreprises doivent admettre la possibilité qu’un de leurs employés fasse quelque chose de compromettant. Et deuxièmement, ils doivent partager les informations sur le comportement de leurs employés, de manière anonyme avec l’ensemble du réseau.

La culture du secret, en revanche, fait obstacle à l’utilisation judicieuse de l’apprentissage machine contre ce type de risque. Même dans une entreprise individuelle qui ne dispose tout simplement pas de suffisamment de données. L’ouverture et la transparence sont les conditions de base d’une gestion efficace des risques, dans laquelle, il faut répondre à la question des risques potentiels comme “Et si ?”. De plus, cela va au-delà des éventuelles actions frauduleuses. Mais, dans de nombreuses entreprises, un tel changement de culture ne peut être mis en œuvre que s’il est initié par la direction.

Transparence et réglementation

La visibilité ou bien la reproductibilité est particulièrement importante lorsqu’il s’agit de déterminer si des décisions sérieuses ont été prises pour des raisons éthiques. Il s’agit d’un facteur crucial de la réglementation visant à empêcher que des décisions inappropriées fondées sur l’intelligence artificielle (IA) ne mettent en péril les moyens de subsistance. Par exemple, la tâche de l’autorité de surveillance peut être d’évaluer les recours contre les décisions de crédit. En outre, une décision qui n’est pas fondée sur des faits clairs sera très probablement susceptible de faire l’objet d’un recours. Il est donc nécessaire que les entreprises aient des employés qui comprennent et maîtrisent les systèmes d’apprentissage machine.

Les défis de la supervision

Mais juger de ce qui est bon et éthique est bien sûr une tâche gigantesque. C’est une question que les autorités de contrôle pourraient passer beaucoup de temps à traiter. Un bon point de départ serait peut-être l’exigence fondée sur des preuves claires et non manifestement discriminatoires. Mais une évaluation sur cette base, aussi clairement formulée soit-elle, peut-être trop compliquée.