Lorsqu’une image ou une vidéo apparaît sur internet. Tout le monde se pose la même question : est ce que ce contenu a été générer ou modifié par une IA ?
Selon une récente enquête menée par Alucare.fr et Ifop, la majorité des Français manquent de confiance dans leur capacité à reconnaître les images produites par l’intelligence artificielle (IA). Concrètement, seulement un tiers des personnes interrogées se sentent capables d’identifier de telles images, tandis que seulement 6 % expriment leur confiance en leurs compétences. Il est intéressant de noter que cette incertitude est particulièrement répandue chez les individus âgés de 35 ans et plus, puisque seulement 28 % d’entre eux se sentent équipés pour détecter les deepfakes, contrairement à 55 % des 18-24 ans. L’enquête révèle que les hommes font preuve d’une plus grande confiance que les femmes lorsqu’il s’agit d’identifier ce type de contenu, 40 % des hommes se déclarant compétents contre 28 % des femmes.
L’enquête a mené un test qui a révélé la difficulté de distinguer les images authentiques de celles créées par l’IA. En effet d’après les résultats d’une étude démontrent que la technologie de l’IA générative pose un défi de taille pour identifier l’authenticité du contenu en ligne. Les participants ont aperçu différentes images et ont été encouragés à juger de leur fiabilité. 75 % des participants ont été trompés par une photographie très réaliste d’un médecin, tandis que 64 % pensaient que l’image d’un homme à cheval était authentique. Mais seulement 32 % ont considéré l’image d’une femme marchant à Tokyo comme authentique, et une scène montrant Donald Trump entouré de policiers n’a convaincu que 29 % des participants. 94 % des participants étaient préoccupés par l’authenticité d’au moins une des images présentées, ce qui soulève la difficulté de distinguer le contenu réel du contenu généré.
