Crédit :CC0 Domaine public
Dans un monde de plus en plus axé sur les données, Sommes-nous simplement en train de parcourir des sources de données au profit de sociétés multinationales géantes ?
Chaque minute, il y a 3,8 millions de requêtes de recherche sur Google; 4,5 millions de vidéos regardées sur YouTube ; près d'un million de dollars dépensés en ligne ; 41,6 millions de messages envoyés via WhatsApp et Facebook Messenger, et ce ne sont qu'une fraction des interactions qui se produisent actuellement en ligne.
Au cours de notre vie quotidienne, en partageant nos expériences personnelles sur les réseaux sociaux, demander à Siri de régler nos alarmes, et compter le nombre de pas que nous marchons sur nos wearables - nous devenons essentiellement des points de données de marche, où nos informations sont collectées et analysées pour prédire le comportement. Où cela finira-t-il ?
Professeur Turgay Celik, Directeur de la National e-Science Postgraduate Teaching and Training Platform (NEPTTP) et du Wits Institute of Data Science (WIDS), prédit que dans les 10 à 15 prochaines années, les humains seront "directement connectés au cyberespace sans utiliser d'appareils. Votre cerveau sera directement connecté à Internet, " il dit.
Les ingénieurs biomédicaux de Wits ont déjà connecté un cerveau humain à Internet en temps réel. Ce projet Brainternet a essentiellement transformé le cerveau en un nœud de l'Internet des objets sur le World Wide Web.
En 2019, la même équipe a connecté deux ordinateurs via le cerveau humain et transmis des mots comme « bonjour » et « pomme », passivement, sans que l'utilisateur sache qu'un message était présent.
"Avons-nous vraiment besoin d'avoir notre corps physique pour expérimenter la vie, ou avons-nous seulement besoin d'avoir notre propre cerveau ?" demande Celik. "Nous verrons les systèmes créer ces environnements virtuels pour donner aux humains une expérience de la nature. Tu veux aller voir l'océan, mais faut-il vraiment y aller physiquement ? Puis-je stimuler une partie de mon cerveau pour me faire vivre cette expérience ? »
Les droits Android et le Big Other
Dr Christopher Wareham, Le maître de conférences au Steve Biko Center for Bioethics de Wits soutient que nous devons réfléchir aux implications de tels développements technologiques du point de vue des agents artificiels. Ces « êtres numériques » auront potentiellement une vie et des droits qui leur sont propres.
"Traditionnellement, l'accent mis sur cette question est très concentré de l'autre côté du problème :comment allons-nous les empêcher de nous nuire ? Il y a très peu de travaux qui l'examinent de l'autre côté. Comment allons-nous empêcher les humains de de nuire à cet être, l'expérimenter ? Devrait-il y avoir des lois qui protègent ce type d'être ?"
Les développements de l'apprentissage automatique et de l'intelligence artificielle (IA) affectent déjà de manière significative la façon dont nous vivons aujourd'hui. L'universitaire américaine Shoshana Zuboff a inventé le terme « capitalisme de surveillance » en 2014. Le capitalisme de surveillance dépend de « l'architecture globale de la médiation informatique… [qui] produit une nouvelle expression de pouvoir distribuée et largement incontestée ». Zuboff surnomme cela le "Big Other". Actuellement, le "Big Other" inclut Facebook, Google, Microsoft et Amazon.
Le capitalisme de surveillance
Écrivant dans The Guardian, Zuboff explique, "La logique du capitalisme de surveillance commence par revendiquer unilatéralement l'expérience humaine privée comme matière première gratuite pour la production et la vente. Ces expériences sont traduites en données comportementales. Certaines de ces données peuvent être appliquées à des améliorations de produits ou de services, et le reste est apprécié pour son pouvoir prédictif. Ces flux de données prédictives sont introduits dans des produits informatiques qui prédisent le comportement humain. »
Le capitalisme de surveillance est un « vrai problème », dit le professeur Brian Armstrong, Chaire en Digital Business à la Wits Business School. "À mon avis, une très grande préoccupation concerne toute l'idée de la notation sociale." Cela fait référence à la pratique consistant à développer un système de notation sociale pour établir si une personne est un membre approprié et approprié de la société, en termes de leur « score social ».
En Chine, les entreprises privées exploitent déjà des systèmes de crédit social, tout comme le gouvernement local dans les projets pilotes. Le plan est de développer un système national qui note le comportement de l'individu, y compris donner un score aux citoyens et ajouter des récompenses et des pénalités pour des actions spécifiques. Par exemple, si vous faites un don à une œuvre caritative, vous marquez des points mais vous perdez des points pour les infractions au code de la route.
Mais il n'est pas nécessaire de chercher aussi loin que la Chine pour une surveillance à la Big Brother. A Johannesbourg, des milliers de caméras de surveillance surveillent déjà les automobilistes et les piétons 24h/24 et 7j/7. En juin, le Financial Mail a rapporté que Vumacam, une filiale de la société de fibre Internet, Vumatel — avait installé plus de 1, 200 caméras de surveillance pour lutter contre la criminalité. D'ici 2020, le nombre de caméras passera à plus de 10, 000.
Les sociétés de sécurité locales peuvent accéder au flux en direct de Vumacam et, alors que le système d'intelligence artificielle apprend à quoi ressemble une journée type dans un quartier, il signalera un comportement qui sort de l'ordinaire pour cette zone. Dr Helen Robertson, qui enseigne la protection des données et l'éthique à l'École d'informatique et de mathématiques appliquées, fait référence à la bataille entre notre droit à la sécurité et notre droit à la vie privée que de telles formes de surveillance mettent au premier plan.
"Il me semble plausible que nous pensons que nos revendications de sécurité ont augmenté de poids par rapport à nos revendications de confidentialité. Si les algorithmes pertinents doivent identifier des anomalies dans les images, nous devons garder à l'esprit à quel point ces algorithmes sont bons ou pas."
Sécurité contre confidentialité
Nos points de vue sur la confidentialité n'ont pas seulement été influencés par des problèmes de sécurité. L'omniprésence des médias sociaux a également joué un rôle. Robertson dit que la personne moyenne est prête à partager beaucoup plus sur sa vie privée aujourd'hui qu'il y a quelques décennies. Ces points de vue évolutifs ne sont pas nécessairement problématiques. « Il peut s'agir simplement de la convention d'une société par opposition à la convention d'une autre société, et comment ils ont tendance à se sentir par rapport à tout ce qu'ils sont prêts à partager."
Celik pense que la confidentialité deviendra personnalisée, les individus étant en mesure de définir le degré d'intimité qu'ils souhaitent pour eux-mêmes.
Notre autonomie est un autre domaine influencé par le monde en ligne. Wareham soutient qu'une grande partie de la publicité micro-ciblée et des messages politiques sont conçus spécifiquement pour dégrader notre autonomie. "Si vous faites une recherche Google maintenant, vous n'allez pas obtenir un échantillon impartial d'informations… vous allez obtenir des informations que Google a préparées pour que vous obteniez… ces sortes de micro-ciblage… manières rationnelles."
La question devient alors de savoir qui décide de ce que vous lisez, Ecouter, ou regarder, et qui décide quel contenu est « approprié » pour une plate-forme numérique spécifique, et ce qui ne l'est pas.
Vers une technologie qui enseigne
Les avancées basées sur les données sont, cependant, pas tout pessimiste. "Les données en elles-mêmes ne sont pas bonnes ou mauvaises agnostiquement, mais c'est ce qu'on en fait. Il peut être abusé, ou il peut être utilisé à des fins très positives, " fait valoir Armstrong, ajoutant que l'éducation est un domaine dans lequel l'Afrique du Sud pourrait bénéficier énormément.
« Si nous pouvions utiliser les systèmes de gestion de l'apprentissage plus efficacement pour voir comment les élèves apprennent, pour voir avec quel matériel ils ont du mal… pour apprendre quels styles d'enseignement fonctionnent le mieux, nous pouvons individualiser l'expérience d'apprentissage."
En Chine, L'éducation basée sur l'IA s'est déjà épanouie avec des dizaines de millions d'étudiants utilisant une forme d'IA pour apprendre. Cela inclut des plateformes de tutorat où des algorithmes organisent des cours et adaptent le programme en fonction de la compréhension d'un individu de concepts spécifiques, rapporte le MIT Technology Review.
Protection des données personnelles
Des quantités stupéfiantes de données sont générées quotidiennement, mais à qui appartiennent toutes ces données ? Robertson souligne qu'il n'y a actuellement aucun consensus parmi les éthiciens sur cette question épineuse.
Certains prétendent que la personne concernée est propriétaire des données. D'autres disent que le sous-traitant qui utilise ses ressources pour créer et analyser un ensemble de données a des droits de propriété, tandis que certains soutiennent que dans certains cas, comme la recherche médicale qui profite à la société, le besoin du public de traitement médical et les percées signifient que les données appartiennent au public.
Ces différentes revendications de propriété « ajoutent beaucoup de grisaille éthique », dit Robertson. « La propriété des données est particulièrement difficile. C'est un objet qui peut être échangé, mais en même temps, il fait référence à un individu, quelque chose comme les autres artefacts, telles que des photographies. Les droits semblent certainement tirer dans des directions différentes. »
Dans le futur proche, Les Sud-Africains auront un pouvoir juridique considérable en ce qui concerne la protection de leurs données. La loi sur la protection des renseignements personnels (POPIA) vise à protéger le droit à la vie privée, tout en permettant les avantages sociaux et économiques qui résultent de la libre circulation de l'information. POPIA précise les conditions dans lesquelles les informations personnelles doivent être traitées licitement, bien qu'il y ait des exceptions.
Ces conditions incluent que les informations personnelles « doivent être collectées pour un explicitement défini et licite". Le traitement ultérieur des informations personnelles ne peut avoir lieu que s'il est conforme à l'objectif pour lequel ils ont été initialement collectés. La plupart des articles de la loi n'ont pas encore commencé. L'annonce d'une date de début est attendue avant fin 2019, après quoi les entreprises auront un an pour se conformer.
Vérine Etsebeth, un maître de conférences à la Wits School of Law spécialisé en droit de la protection des données et de la sécurité de l'information, dit que la loi POPI est attendue depuis longtemps. « Plus tôt ce sera dans la pratique, plus vite cela pourra venir devant nos tribunaux et nous pourrons créer des précédents, " dit Etsebeth. " Ce sera la survie du plus fort. Si votre concurrent s'y conforme et vous non, vous ne pourrez pas fidéliser vos clients. Les entreprises réaliseront à quel point leur réputation vaut. »
Déresponsabilisation numérique
Malgré l'enthousiasme suscité par le potentiel de la technologie à résoudre certains de nos problèmes les plus complexes, de nombreux Sud-Africains sont encore exclus de ces avancées. Seulement 40 % de la population africaine a accès à Internet contre 61 % pour le reste du monde. En Afrique du sud, Le taux de pénétration d'Internet est actuellement de 56 %.
"Dans le monde d'aujourd'hui, la déresponsabilisation numérique est l'une des formes les plus profondes de déresponsabilisation, " dit Armstrong. " L'impuissance numérique se décline en trois niveaux. La première est avez-vous accès, Deuxièmement, l'utilisez-vous, et troisièmement êtes-vous fiancé, transaction et impacté ? En Afrique du sud, vous n'y avez pas accès si les réseaux ne couvrent pas où vous êtes, ou si vous ne pouvez pas vous permettre l'appareil mobile… ou si vous ne pouvez pas vous permettre le prix des données. Dans tous ces domaines, nous avons un défi."