• Home
  • Chimie
  • Astronomie
  • Énergie
  • La nature
  • Biologie
  • Physique
  • Électronique
  • Il ne s'agit pas seulement d'e-mails de phishing, maintenant nous devons nous soucier des faux appels, trop

    Crédit :CC0 Domaine Public

    Lorsque votre patron vous appelle et vous dit de virer 100 $, 000 à un fournisseur, être sur vos gardes. Il pourrait s'agir d'un faux appel.

    Comme si les faux e-mails de "phishing" ne suffisaient pas, à la hausse maintenant sont des audios "deep fake" qui peuvent être clonés avec une quasi-perfection pour un son presque parfait, et sont faciles à créer pour les pirates.

    "C'est en hausse, et quelque chose à surveiller, " dit Vijay Balasubramaniyan, le PDG de Pindrop, une entreprise qui propose l'authentification biométrique pour les entreprises.

    Balasubramaniyan a démontré lors d'une conférence sur la sécurité à quel point il est facile de prendre de l'audio sur Internet et d'utiliser l'apprentissage automatique pour créer des phrases enregistrées en phrases que l'humain n'a probablement jamais dites.

    "Tout ce dont vous avez besoin, c'est de cinq minutes d'audio, et vous pouvez créer de faux sons, " dit Balasubramaniyan.

    Par exemple, il a montré une base de données de voix, tapé "Ce matin, les forces américaines ont donné à la Corée du Nord le nez sanglant qu'elles méritent, " et l'a connecté au nom du président Donald Trump dans la liste. Quelques secondes plus tard, il a cliqué sur jouer, et cela sonnait étrangement réel.

    Il a également présenté un exemple du PDG de Facebook, Mark Zuckerberg, qui aurait répondu à l'amende de 5 milliards de dollars de 2019 du réseau social pour violation de la vie privée en disant soi-disant :« La FTC pense qu'une amende de 5 milliards de dollars va nous empêcher de violer la vie privée des gens ?

    Récemment, La voix de la présidente de la Chambre, Nancy Pelosi, a été altérée dans un clip sur les réseaux sociaux, mais ce n'était pas un exemple de faux audio, Balasubramaniyan a dit, ralentissant simplement le son pour faire croire que sa voix était brouillée.

    Plus coûteux sont les exemples de faux appels téléphoniques, où les fraudeurs ont pu falsifier le numéro de téléphone de contacts réels et passer des appels qui ont conduit les employés à envoyer beaucoup d'argent.

    Il a cité l'exemple d'une entreprise énergétique du Royaume-Uni en 2019 qui a été piratée par un faux audio profond, dans un appel qui demandait le transfert de ce qui s'élevait à 243 $, 000 à un fournisseur. Selon le Wall Street Journal, l'exécutif a reçu l'ordre de le payer dans l'heure.

    Alors que faire?

    Balasubramaniyan dit que si vous receviez ce genre d'appel prétendument d'un "patron, " soyez sceptique et demandez à rappeler tout de suite pour confirmer l'authenticité.

    Passez l'appel, et si le vrai patron répond, "Tu sais que c'est réel."

    Au-delà d'être sur vos gardes, les entreprises doivent utiliser plusieurs mesures de sécurité pour également suivre les appels téléphoniques générés par de fausses intelligences artificielles, il ajoute, logiciel pour détecter les appels authentiques par rapport aux faux appels.

    "C'est une menace qui attend de se produire, " dit-il. " C'est un très petit nombre maintenant, mais c'est très réel."

    (c) 2020 États-Unis aujourd'hui
    Visitez U.S. Today sur www.usatoday.com




    © Science https://fr.scienceaq.com