Éviter la fraude : avec du deep learning ?

Bonjour,

En réflexion au sujet des photos pour certifier, j’émets la question suivante :

“Un algorithme de détection des attaques sybils à l’aide de l’apprentissage statistique (ou deep learning) est-il envisageable ?”

Il semblerait que cela ce fasse selon cette vidéo.

Alors, oui techniquement j’imagine que ça va être long à développer (et de plus le jeu de données actuel n’est certainement pas suffisant pour un apprentissage), mais est ce qu’au moins idéologiquement ce n’est pas contraire à la monnaie libre ?

Toutes mes excuses si le sujet a déjà été soulevé, mais mes recherches n’ont rien trouvé !

Bonjour,
il me semble que la question est pertinente, et même si elle est encore loin d’être au programme (car pas spécialement prioritaire) une personne motivée pourrait s’y atteler.

Est-ce souhaitable ?

Pour moi il y a 2 points de vigilance, mais pas d’opposition formelle :

  1. l’IA doit détailler autant que possible les raisons qui la pousse à donner tel avis (à concevoir dès le début, et vrai challenge)
  2. l’IA ne doit pas avoir la main sur la blockchain, c’est un outil à part. Les personnes autour des comptes en question seront contactées par des humains comme aujourd’hui, et chacun se débrouillera avec ses certifications.

Comment faire ?

Niveau données on reste à sec.
On peut tenter un algorithme antagoniste (:uk: adversarial) mais il cherchera à se tromper lui-même, alors que les humains raisonnent différemment, donc je ne vois pas comment le lancer dans le bon sens.
L’idée (géniale au demeurant) de ne pas avoir de règles hyper précises dans la licence rend l’usage des robots difficiles.

3 J'aimes

Quid du cas des jumeaux?

Basé uniquement sur l’aspect visuel avec des photos (ou peut importe même avec une webcam allumée en guise de login), l’IA cherchera à ce que une même “gueule” ne puisse avoir 2 compte membre.