Sélection de la langue

Recherche

Songer à la sécurité lorsqu'on adopte l'intelligence artificielle (DDN2-V46)

Description

Cette vidéo présente les perspectives de chefs de file du gouvernement, du milieu universitaire et de l'industrie concernant l'intelligence artificielle et la façon dont les intérêts du Canada en matière de sécurité doivent être protégés à mesure que le monde adopte cette nouvelle technologie puissante.

Durée : 00:23:16
Publié : 27 mars 2024
Type : Vidéo


Lecture en cours

Songer à la sécurité lorsqu'on adopte l'intelligence artificielle

Transcription | Visionner sur YouTube

Transcription

Transcription : Songer à la sécurité lorsqu'on adopte l'intelligence artificielle

[00:00:00 Un message s'affiche à l'écran : Tenir compte de la sécurité dès la conception : Intelligence artificielle.]

[00:00:07 Caroline Xavier apparaît en plein écran. Texte à l'écran : Caroline Xavier Chef du Centre de la sécurité des télécommunications.]

Caroline Xavier : Bonjour, je suis Caroline Xavier, chef du Centre de la sécurité des télécommunications du Canada, une agence où l'on déchiffre et casse des codes depuis plus de 75 ans.

Mon équipe travaille de concert avec nos partenaires provenant de la Défense nationale, d'autres ministères, et d'autres pays, afin de déterminer comment nous pouvons assurer la sécurité d'un monde où l'intelligence artificielle (l'I.A.) pourrait tout bouleverser, y compris ce que l'on tient pour acquis en matière de sécurité.

Nous avons réuni nos collègues travaillant dans le domaine de l'intelligence artificielle pour discuter de la façon dont les intérêts de sécurité du Canada peuvent être protégés à mesure que le monde adopte cette puissante nouvelle capacité.

Voici les sujets qui seront abordés :

  1. l'I.A. est à la fois source de possibilités et de vulnérabilités;
  2. le Canada a déjà fait ses preuves;
  3. nos adversaires font de grandes avancées;
  4. les cadres législatifs, de politiques et de gouvernance exigent que nous agissions dès maintenant;
  5. cette question nous concerne toutes et tous; et
  6. avoir confiance en l'avenir.

[00:01:30 Diapositif. Texte à l'écran : L'I.A. est à la fois source de possibilités et de vulnérabilités.]

Caroline Xavier : « L'I.A. est à la fois source de possibilités et de vulnérabilités. »

[00:01:13 Général Paul Nakasone apparaît en plein écran. Texte à l'écran : Général Paul Nakasone, commandant de l'US Cyber Command, directeur de la National Security Agency et chef du Central Security Service.]

Général Paul Nakasone : Je comprends que le chef de la fonction publique a convoqué des dirigeants du gouvernement canadien pour examiner la sécurité de l'I.A.. Caroline Xavier m'a demandé de faire le point sur certains des efforts déployés récemment par la N.S.A. (National Security Agency) portant sur l'I.A., et plus particulièrement sur la sécurité de l'I.A.

[00:01:47 Anne Keast-Butler apparaît en plein écran. Texte à l'écran : Anne Keast-Butler, Directrice, Government Communications Headquarters, Royaume-Uni.]

Anne Keast-Butler : Caroline m'a demandé de prendre quelques minutes pour analyser l'opinion du Royaume-Uni à l'égard de l'I.A., alors que vous vous réunissez et réfléchissez à ce que peut faire le Canada pour s'attaquer à ce défi de notre génération.

[00:02:00 Jen Easterly apparaît en plein écran. Texte à l'écran : Jen Easterly, Directrice, Cybersecurity & Infrastructure Security Agency.]

Jen Easterly : Internet n'a jamais été conçu pour se soucier de la sûreté et de la sécurité. Internet a été créé pour partager de l'information. Puis sont apparus les logiciels, et les logiciels n'ont pas été créés pour être sécuritaires. Ce fut ensuite le tour des médias sociaux, et les médias sociaux n'ont pas été créés pour être sécuritaires. Honnêtement, c'est la raison pour laquelle nous avons un réseau Internet qui est envahi de maliciels, nous avons des logiciels qui sont remplis de vulnérabilités, nous avons des médias sociaux qui débordent de désinformations. Avec cette prochaine génération de technologie, d'intelligence artificielle et de grands modèles de langage, nous devons nous assurer de ne pas faire l'erreur de privilégier la vitesse au détriment de la sécurité. Nous devons nous assurer de donner la priorité à la sécurité, et ce, dès la phase de conception.

[00:02:45 Marilia Araujo apparaît en plein écran. Texte à l'écran : Marilia Araujo, partenaire, données et analytique, et I.A., PwC Canada.]

Marilia Araujo : Voici un fait intéressant tiré de notre enquête Global Survey for Hopes and Fears : il semblerait que seulement 31 % des Canadiennes et Canadiens croient que l'I.A. aura une incidence sur leurs carrières professionnelles ou leurs vies personnelles. Je crois donc que le manque de connaissances pose une grande menace au chapitre de la sécurité nationale et lorsqu'il est question du degré de préparation de la population canadienne à ce qui s'en vient.

[00:03:13 Diapositif. Texte à l'écran : Le Canada a déjà fait ses preuves.]

Caroline Xavier : « Le Canada a déjà fait ses preuves. »

[00:03:16 Eric Bisaillon apparaît en plein écran. Texte à l'écran : Eric Bisaillon, directeur général, Capacités de cyberdéfense du Centre canadien pour la cybersécurité.]

Eric Bisaillon : Il y a vraiment des quantités de talent immense au Canada en termes d'intelligences artificielle. Certain des centres de recherche, des centres de collaboration, des écosystèmes pour l'I.A. ades encrages à Montréal, à Québec, au Québec en générale, ailleurs au Canada où il y a vraiment des chercheurs et des sommités au niveau de l'I.A. qui sont aussi francophone. Donc c'est super intéressant pour nous de puiser dans cette communauté-là, de travailler avec ces gens-là. D'en recruter aussi si certains veulent venir travailler pour le gouvernement fédéral et nous aider avec ces défis-là aussi.

[00:03:54 Joel Martin (PhD) apparaît en plein écran assis à côté de Rajiv Gupta. Texte à l'écran : Joel Martin (Ph. D.), Dirigeant principal de la recherche numérique et premier dirigeant scientifique du Conseil national de recherche du Canada.]

Joel Martin (Ph. D.) : Le gouvernement du Canada dispose d'une expertise en I.A. depuis des dizaines d'années au sein de Statistique Canada, du C.S.T. (Centre de la sécurité des télécommunications) et de nombreuses organisations. Je suis plus familier avec ce qui se fait au Conseil national de recherche du Canada.

Notre premier projet d'I.A. a été livré à une entreprise en 1991. Pour ce qui est des grands modèles de langage, précisons que nous travaillons avec des modèles de langage depuis 2003. Nous sommes passés aux gros volumes vers 2010, et nous avons ensuite ajouté des « Transformateurs » (c'est ce que signifie le « T » dans G.P.T.) vers 2017. Nous pouvons compter sur des expertes et experts en I.A. dans l'ensemble du gouvernement du Canada. Vous n'avez peut-être pas encore entendu parler d'eux, mais ils sont déjà en train de réaliser des projets d'I.A. au sein du gouvernement.

[00:04:41 Rajiv Gupta apparaît en plein écran assis à côté de Joel Martin (Ph. D.). Texte à l'écran : Rajiv Gupta, Dirigeant associé, Centre canadien pour la cybersécurité.]

Rajiv Gupta : De même, dans le contexte du C.S.T., nous travaillons de différentes façons sur l'apprentissage machine, l'intelligence artificielle et d'autres initiatives du genre liées à l'analyse des mégadonnées, et ce, depuis plusieurs décennies. Dans une optique de cyberdéfense, nous avons mis en œuvre un tout premier système de défense d'I.A. « sans intervention humaine » en 2018 exploité par le gouvernement du Canada. Ce fut un moment des plus emballants pour nous. Nous le faisons déjà depuis quelque temps. Nous avons aussi l'Institut Tutte pour les mathématiques et le calcul qui compte un grand nombre de chercheuses et chercheurs en intelligence artificielle. Cela représente donc beaucoup d'expertise dans le domaine, et nous travaillons à cet endroit depuis déjà quelque temps.

[00:05:11 Diapositif. Texte à l'écran : Nos adversaires font de grandes avancées.]

Caroline Xavier : « Nos adversaires font de grandes avancées. »

[00:05:15 Jen Easterly apparaît en plein écran.]

Jen Easterly : L'intelligence artificielle générative a marqué l'imagination du monde entier au cours de la dernière année. Il incombe à nous tous, en tant que leaders, de nous assurer de tirer parti du pouvoir de l'imagination, et d'éviter les revers de celle-ci.

[00:05:32 Eric Bisaillon apparaît en plein écran.]

Eric Bisaillon : C'est toujours difficile de savoir exactement ce que les adversaires font, mais selon nos évaluations des menaces surtout provenant des pays étrangers, on sait que les technologies émergentes vont être utilisées de plus en plus et à bon escient et aussi pour tenter de porter atteinte à la sécurité ou au bienfait du Canada.

Les opérations progressent vraiment à la vitesse des machines en ce moment, donc ça prend absolument des outils essentiels parce que les nouvelles menaces, les nouveaux défis qu'on regarde, ne sont plus à l'échelle de la capacité humaine seule de réagir. Donc il faut absolument s'armer de ces outils là pour pouvoir vraiment réagir puis œuvrer dans le domaine de la sécurité moderne.

[00:06:23 Général Paul Nakasone apparaît en plein écran.]

Général Paul Nakasone : Comme on pouvait s'y attendre, nos adversaires s'empressent de développer et de mettre en œuvre leur propre I.A., et nous pouvons prévoir qu'ils chercheront des moyens pour utiliser prochainement l'I.A. non seulement contre nos systèmes de sécurité nationale et la base industrielle de défense, mais aussi contre nos partenaires.

C'est la raison pour laquelle nous devons dès à présent engager une réflexion sur la sécurité de l'I.A. : empêcher l'I.A. d'apprendre, de faire et de divulguer de mauvaises choses, ainsi que la protéger contre des attaques, des vols ou des préjudices. Nous devons instaurer une solide compréhension des vulnérabilités et des menaces de l'I.A. visant les systèmes d'I.A., et veiller à ce que les auteures ou auteurs étrangers ne volent pas les capacités en matière d'I.A. de nos partenaires et de l'Amérique.

[00:07:04 Anne Keast-Butler apparaît en plein écran.]

Anne Keast-Butler : Nous, en tant qu'organisation SIGINT (Signal Intelligence), avons une perception unique de la menace de nos adversaires qui utilisent l'I.A. pour augmenter ou modifier des menaces spécifiques à la sécurité nationale. Ainsi, nous utilisons nos informations dans la recherche du renseignement pour contribuer à façonner la réflexion à ce sujet. Et tous ces efforts sont réunis au Royaume-Uni par le biais du Joint Intelligence Committee et grâce à l'attention qui a été mise temporairement sur l'I.A.. Cela permet de mettre de l'avant différents aspects du renseignement, et le G.C.H.Q. (Government Communications Headquarters) en fait partie.

[00 :07 :35 Rajiv Gupta apparaît en plein écran assis à côté de Joel Martin (Ph. D.).]

Rajiv Gupta : Du point de vue du Centre pour la cybersécurité, nous nous inquiétons beaucoup de l'utilisation de l'I.A. générative pour tout ce qui touche la production d'information fausse, la mésinformation ou la désinformation. Nous avons soulevé cette inquiétude dans l'Évaluation des cybermenaces nationales. À mesure que nous mettons au point de nouvelles technologies, nous devons faire en sorte de mettre en place des barrières de sécurité qui sauront garantir que l'avantage sur le plan social n'est pas supplanté par les préjudices pouvant en découler.

[00 :07 :55 Jen Easterly apparaît en plein écran.]

Jen Easterly : Je sais quel est le résultat souhaité. Le résultat souhaité serait de laisser aux auteures ou auteurs de menace un minimum de chance d'exploiter ces très puissantes capacités. C'est là où nous voulons en arriver. Tout comme ce que nous tentons d'atteindre dans la révolution sécurisée par conception, qui est de réduire considérablement le nombre de failles dans les logiciels sur lesquels nous comptons chaque jour et que les auteures ou auteurs de menace peuvent exploiter. C'est ce que l'on qualifie de résultat souhaité.

[00 :08 :22 Diapositif. Texte à l'écran : Les cadres législatifs, de politiques et de gouvernance exigent que nous agissions dès maintenant.]

Caroline Xavier : « Les cadres législatifs, de politiques et de gouvernance exigent que nous agissions dès maintenant. »

[00 :08 :30 Joel Martin (Ph. D.) apparaît en plein écran assis à côté de Rajiv Gupta.]

Joel Martin (Ph. D.) : Comme nous ne pouvons rien assurer avec certitude, nous ne pouvons vraiment pas prédire ce que OpenAI va publier d'ici un an. Si nous essayons de codifier quelque chose dans la loi dès maintenant, nous pourrions nous tromper.

Rajiv Gupta : Absolument. C'est le défi de la réglementation. Nous l'avons maintenue à un niveau élevé, basée sur un cadre et des principes. Et nous avons laissé de la place à l'agilité pour permettre une évolution constante.

Joel Martin (Ph. D.) : Ainsi, cette agilité implique de notre part une réévaluation périodique.

C'est une technologie que personne ne comprend. Ce que je veux dire c'est qu'il y a des gens au sein du gouvernement, des milieux universitaires et de l'industrie qui comprennent ces technologies, mais dans l'ensemble, les utilisatrices et utilisateurs de ces technologies ne les comprendront pas. Et le seul moyen pour qu'ils aient confiance en celles-ci, serait si ces technologies offraient un type quelconque de certification. Un organisme digne de confiance peut dire : « Oui, les caractéristiques sont présentes, nous pouvons donc accorder notre confiance. »

Je ne pense pas que nous avons beaucoup progressé en ce qui a trait à la capacité de réaliser tous les tests que nous voudrions effectuer, par exemple, un test sur un grand modèle linguistique pour être en mesure de lui faire confiance dans des cas limites, dans des cas limites particuliers.

Nous aimerions avoir des règles dans le contexte peu contraignant que nous avons abordé plus tôt, pour que nous puissions disposer de lignes directrices qui seraient publiées régulièrement et réexaminées sur une base continue. Des lignes directrices qui demeurent longtemps intactes. Ce sont celles que nous mettons en place dans les règlements et les lois. Mais nous devrions faire de la détection. Nous devons pouvoir compter sur un groupe qui sera à l'affût de ce qui s'en vient. On espère que le C.S.T. s'attaque déjà à certains de ces aspects, mais nous devons reconnaître qu'avec l'I.A., les choses que nous devons détecter changent quelque peu.

Rajiv Gupta : Eh bien, je ne pense pas qu'il y ait un changement à la structure de gouvernance, je veux dire, je ne pense pas qu'il y ait un ministre de l'I.A. qui va résoudre le problème ou non. Je pense par contre qu'il s'agit d'un changement philosophique ou culturel qui va dicter l'élaboration des politiques, et nous faire comprendre que nous ne disposons plus des mêmes délais qu'auparavant. Les choses évoluent beaucoup plus rapidement, et nous devons les aborder de façon différente, et la question est de savoir comment nous allons gérer un système technologique en évolution rapide qui engendre de nombreuses implications dans l'ensemble de la société. Il nous faut donc aussi changer notre façon de penser par l'approche que nous adoptons à l'égard des défis du gouvernement.

[00:10:39 John Weigelt apparaît en plein écran. Texte à l'écran : John Weigelt, Directeur des techniques informatiques et chef de l'I.A. chezMicrosoft Canada et au sein du groupe de travail sur l'I.A. et l'AM duForum canadien pour la résilience des infrastructures numériques à ISDE.]

John Weigelt : Lorsque nous commençons à élaborer les cadres d'applications pour ces outils, il est important d'adopter une approche basée sur des principes en examinant les préjudices potentiels et en restant très neutre vis-à-vis de la technologie. Lorsque nous voyons des technologies se frayer un chemin dans des politiques, ces dernières n'ont pas tendance à durer. Ainsi, nous gérons cette divergence, ce rythme de changement distinct entre la politique et la technologie, en adoptant une approche basée sur des principes. Nous avons vu que cela a déjà été fait par le gouvernement. On peut donner comme exemple la L.P.R.P.D.E. (Loi sur la protection des renseignements personnels et les documents électroniques) qui est restée en vigueur pendant 20 bonnes années.

[00:11:09 Diapositif. Texte à l'écran : Cette question nous concerne toutes et tous.]

Caroline Xavier : « Cette question nous concerne toutes et tous. »

[00:11:14 Anne Keast-Butler apparaît en plein écran.]

Anne Keast-Butler : Notre réflexion sur l'I.A. doit impliquer le gouvernement, la sécurité, le milieu universitaire, l'industrie, et adopter une approche véritablement mondiale. Et c'est ce que nous faisons par le biais de notre Department for Science, Innovation and Technology. Mais compte tenu de l'ampleur de la tâche et de la nécessité d'agir rapidement, un groupe de travail a été mis sur pied, et j'ai le privilège de faire partie du groupe directeur qui a guidé notre réflexion sur la sécurité dans le domaine de l'I.A..

La manière dont vous établissez des partenariats et obtenez le point de vue d'experts, et un large éventail de points de vue provenant entre autres de la société civile sont au cœur de l'approche que préconise le Royaume-Uni.

[00:11:49 David Perry (Ph. D.) apparaît en plein écran assis à côté d'Alex Wilner (Ph. D). Texte à l'écran : David Perry (Ph. D.), Président de l'Institut canadien des affaires mondiales et codirecteur de Triple Helix.]

David Perry (Ph. D.) : C'est un domaine où je pense qu'il est nécessaire d'assurer un dialogue permanent entre les intervenants au sein du gouvernement, les gens du secteur privé et ceux à l'extérieur des cercles gouvernementaux. Ainsi, nous cherchons des occasions pour établir des contacts réguliers afin de maintenir le dialogue. C'est vraiment un secteur de la technologie qui évolue rapidement, et il est important, dans la mesure du possible, que tous soient sur la même longueur d'onde, et de s'assurer de maintenir la communication ouverte.

[00:12:10 Alex Wilner (Ph. D.) apparaît en plein écran assis à côté de David Perry (Ph. D.). Texte à l'écran : Alex Wilner (Ph. D.), Professeur à la Norman Paterson School of International Affairs de l'Université de Carleton et codirecteur de Triple Helix.]

Alex Wilner (Ph. D.) : Du point de vue des universitaires, il est essentiel d'amener nos étudiantes et étudiants diplômés à nourrir des réflexions sur l'avenir, non seulement pour leur propre carrière, mais aussi pour le bien du Canada. Et nous essayons de former les gens un peu différemment. Nous sommes, par nature, des spécialistes en sciences sociales, mais nous essayons d'ajouter une perspective scientifique et technologique à notre façon de faire les choses au sein du milieu universitaire. C'est pourquoi ce type de collaboration est si important pour assurer la réussite des universités canadiennes.

[00:12:33 Frédéric Demers apparaît en plein écran. Texte à l'écran : Frédéric Demers, Gestionnaire, bureau de recherche, Centre de la sécurité des télécommunications.]

Frédéric Demers : L'aspect partenariat est important aussi à mes yeux : partenariat avec le milieu académique canadien qui est excellent dans le domaine, partenariat avec l'industrie canadienne qui a aussi des immenses forces dans le domaine pour nous guider à apprendre à apprivoiser ces outils-là. Je pense que c'est un aspect qui est important également. On parle d'encadrer l'utilisation mais on peut, le Canada, devenir un chef de file aussi puis projeter les valeurs qui sont propres à nous pour que l'utilisation de ces outils-là soient réglementés d'une certaine façon, d'une façon qui représente les valeurs canadiennes. Je pense qu'on a une position à prendre au côté internationale de ce côté-là. Notre agence est bien positionnée étant donné qu'on voit un peu qu'est-ce qui se passe à l'extérieur.

[00:13:13 Général Paul Nakasone apparaît en plein écran.]

Général Paul Nakasone : Je voudrais donner un peu de contexte sur l'I.A. d'un point de vue américain. Les États-Unis sont un chef de file en matière d'I.A.. En plus de jouer un rôle de premier plan dans leur développement, les industries et les entreprises américaines poursuivent leurs efforts visant à trouver des moyens de l'appliquer au bénéfice de notre société. Nos adversaires de partout dans le monde reconnaissent l'importance de l'I.A. et ils chercheront sans nul doute à s'approprier nos avancées et à altérer notre application de l'I.A. pour leurs propres fins. Les dirigeants de notre nation comprennent cela et ils soulignent l'importance de l'I.A. dans chaque stratégie de niveau national communiquée au cours des deux dernières années, précisant comment l'I.A. aura des conséquences sur nos efforts sur le plan militaire, économique, technologique et diplomatique, ainsi que sur les efforts de nos alliés et partenaires.

Alors, que faisons-nous sur le plan de la sécurité de l'I.A.? En septembre, j'ai annoncé que la N.S.A. regroupait ses activités liées à la sécurité de l'I.A. au sein du A.I. Security Center. Ce centre permettra de : faire progresser les fondements scientifiques en matière de vulnérabilités et d'atténuations de l'I.A.; favoriser des échanges bidirectionnels avec l'industrie et les experts; élaborer, évaluer et promouvoir les pratiques exemplaires de sécurité de l'I.A.

Le A.I. Security Center contribuera à l'élaboration de pratiques exemplaires, de lignes directrices, de principes, de méthodologies d'évaluation et de cadres de gestion des risques pour la sécurité de l'I.A., dans le but de promouvoir l'élaboration, l'intégration et l'adoption sécuritaires des capacités de l'I.A. au sein de nos systèmes de sécurité nationale et de la base industrielle de la défense.

[00:14:47 Jen Easterly apparaît en plein écran.]

Jen Easterly : Ce que nous ne voulons pas, c'est de réprimer l'esprit d'innovation qui peut vraiment catalyser ces capacités incroyablement puissantes pouvant pour accomplir des choses surprenantes, comme trouver des remèdes aux maladies réfractaires. Mais pour ce faire, il faut que les experts travaillent en collaboration pour mettre en place les bons mécanismes et les bonnes balises pouvant permettre de gérer efficacement ces capacités, de sorte que la sécurité et la sûreté soient une priorité, et non un simple élément complémentaire, comme c'est le cas dans les logiciels depuis leur création il y a plusieurs décennies.

[00:15:26 Charlotte Duval-Lantoine apparaît en plein écran. Texte à l'écran : Charlotte Duval-Lantoine, Directrice des opération au bureau d'Ottawa et chercheuse de l'Institut canadien des affaires mondiales et directrice administratice et conseillère en matière d'égalité en les sexeschez Triple Helix.]

Charlotte Duval-Lantoine : En raison du rythme avec lequel progressent nos adversaires, nous considérons souvent les cadres d'applications comme des obstacles au développement de l'I.A.. Mais je pense que cela va être un facteur d'amélioration opérationnelle, car plus notre mise en œuvre est diversifiée et inclusive, moins nous serons confrontés à des biais, meilleure sera notre image opérationnelle et plus nous serons en mesure d'atteindre une efficacité opérationnelle. Mais aussi, nous allons réduire les dommages collatéraux potentiels.

[00:15:54 Eric Bisaillon apparaît en plein écran.]

Eric Bisaillon : Les mêmes principes de base je pense s'appliquent. C'est à dire d'où proviennent les données qu'on va insérer dans ces outils, est-ce que les données vont rester sous notre contrôle au sein du gouvernement, ou vont-elles même être exportées vers des tiers parties ou des compagnies qui gèrent ces modèles-là, qu'est-ce qui va arriver aux aspects de vie privée de ces données-là, ou des aspects confidentiels de ces données-là. Donc, ça c'est des considérations importantes qu'il faut regarder à travers nos efforts.

[00:16:33 Frédéric Demers apparaît en plein écran.]

Frédéric Demers : Et le C.S.T. a beaucoup, beaucoup de données. Tant du côté renseignement que du côté cyberdéfense. Alors l'utilisation de ces outils-là pourrait avoir un effet propulseur afin de remplir nos mandats. C'est quelque chose qu'on doit regarder, qu'on doit s'attaquer. En même temps les valeurs canadiennes font en sorte que on veut respecter les droits et libertés des Canadiens, que ça soit par les modèles de l'I.A. ou par les humains qui sont derrière qui utilisent ces outils-là. Je pense que l'approche humaine est importante pour encadrer l'utilisation de ces outils-là, pour pas qu'ils soient laissés à eux-mêmes, qu'ils font des recommandations sans qu'un humain soit derrière.

[00:17:10 Joel Martin (Ph. D.) apparaît en plein écran assis à côté de Rajiv Gupta.]

Rajiv Gupta : Du point de vue de l'infrastructure critique, je m'inquiète toujours, même en ce qui concerne les capteurs eux-mêmes, et ce, qu'ils mesurent la sismologie, la température, les taux de circulation ou autre. Vous devez tenir compte du fait que les données proviennent d'une source quelconque. Même si vous êtes munis de l'algorithme le plus intelligent au monde, si l'intégrité des données qui l'alimente n'a pas été assurée, vous vous retrouvez avec un problème. Si vous ne stockez pas les données correctement, si vous n'avez pas mis en place des systèmes de gouvernance des données adéquats, vous pourriez faire face à des problèmes très préoccupants. Essentiellement, c'est donc dire qu'il est important d'intégrer des niveaux de gouvernance des données, de cybersécurité et d'informatique fiables dans les autres espaces d'analyse de données. Vous devez examiner l'ensemble de votre chaîne d'approvisionnement, depuis la collecte des données en passant par le traitement de celles-ci, jusqu'à l'endroit où vous prenez réellement des mesures ou interagissez avec l'utilisatrice ou utilisateur final. Cela signifie que vous avez besoin d'une norme commune dans l'ensemble de la chaîne d'approvisionnement, car un maillon faible dans cette chaîne peut entraîner des risques pour l'ensemble de votre organisation, ce qui en fin de compte est le résultat final de l'I.A. ou de la cybersécurité.

Joel Martin (Ph. D.) : Le Conseil national de recherches (CNRC) gère des données astronomiques pour le Canada depuis 1986 au Centre canadien de données astronomiques. Il s'agit d'une énorme ressource. Dès que les données sortent des télescopes, vous pouvez accéder à cette ressource en moins de 15 minutes. Ainsi, les astronomes du monde entier peuvent venir les consulter. Toutes sortes de codes y sont rattachés. Et tout cela fait partie de la science ouverte. Vous pourriez vous dire : « Très bien, nous n'avons pas besoin de nous soucier de la cybersécurité puisque c'est une source ouverte, donc n'importe qui peut y accéder à tout moment. » Mais, le problème est que nous devons protéger l'intégrité de ces données. Il s'agit de données scientifiques, et beaucoup de celles-ci ne peuvent être recueillies qu'une seule fois dans l'histoire de l'univers. Nous devons donc préserver ces données de manière fiable. Toute répercussion renvoie également au C.N.R.C. plutôt qu'au Canada dans son ensemble. C'est donc dire que si nous générons de mauvaises données astronomiques, les gens ne font plus appel à nous et nous cessons de recevoir du financement, et nous cessons de faire partie du réseau des télescopes internationaux, entre autres. Même les données de science ouverte doivent être protégées.

[00:19:12 Diapositif. Texte à l'écran : Avoir confiance en l'avenir.]

Caroline Xavier : « Avoir confiance en l'avenir. »

[00:19:15 Joel Martin (Ph. D.) apparaît en plein écran assis à côté de Rajiv Gupta.]

Joel Martin (Ph. D.) : Nous serons également en mesure d'utiliser l'I.A. générative dans le domaine des sciences de l'espace. Outre le C.N.R.C., de nombreuses entreprises au Canada travaillent dans le domaine et utilisent l'I.A. dans leur quête de matériaux améliorés. Un domaine où cette quête sera mise en œuvre, du moins en Ontario et au Québec, est la recherche de matériaux pour les batteries. Il s'agit de trouver des matériaux améliorés pour fabriquer des cellules de batteries provenant de minéraux critiques du Canada, puis de concevoir des véhicules électriques en ayant recours à l'I.A. générative. Cela se produit déjà au Canada.

J'ai assisté à une conférence aux États-Unis au cours de laquelle j'ai entendu dire : « nous perdons du terrain par rapport au Canada ». Ceci est donc un domaine où le Canada réussit bien, avec l'utilisation de l'I.A. générative. Et cette tendance va aller en grandissant, mais, comme je l'ai déjà mentionné, il y a certaines choses que nous allons devoir guetter.

[00:20:05 Jen Easterly apparaît en plein écran.]

Jen Easterly : Je veux m'assurer que les générations qui me succéderont puissent bénéficier de ces technologies sans subir les préjudices considérables qu'elles pourraient causer si elles ne sont pas élaborées en mettant la sûreté et la sécurité en avant-plan.

[00:20:27 Anne Keast-Butler apparaît en plein écran.]

Anne Keast-Butler : Comment l'I.A. peut-elle m'aider ainsi que mon organisation à devenir meilleur? En améliorant la manière dont nous gérons nos activités collectivement, quels enseignements peut-on en tirer? Comment pouvons-nous en profiter comme le fait tout le monde? Comment pouvons-nous l'utiliser pour stimuler la productivité, orienter nos informations sur les endroits où se fait la combustion du carbone et améliorer notre capacité à atteindre nos objectifs de carboneutralité? De quelle autre façon pouvons-nous l'utiliser pour gérer les activités, et comment pouvons-nous utiliser l'I.A. pour améliorer nos capacités de collecte de données et vraiment nous y attaquer? En outre, nous expérimentons beaucoup dans l'environnement unique et secret qui nous est propre, et nous partageons les résultats de ces expérimentations avec Caroline et le C.S.T., afin que cela ne soit pas seulement un apprentissage spécifique au Royaume-Uni, mais plutôt quelque chose que nous accomplissons ensemble en partenariat.

Mais nous pensons également à l'avenir. Nous réalisons des investissements pour nous préparer à un éventuel effet perturbateur causé par l'I.A., même si aucun d'entre nous ne peut vraiment prédire de quoi il s'agira.

Et tout cela s'est concrétisé lors du récent sommet auquel j'ai eu le plaisir d'assister, et que le ministre Champagne a présidé avec brio; sommet au cours duquel il a été question de la menace. Et je sais que le Canada est un chef de file dans le domaine grâce à l'expertise de gens comme Yoshua Bengio, entre autres. Alors, sachez que nous voulons que cette conversation demeure active, et nous vous souhaitons vraiment bonne chance dans l'élaboration de l'approche du Canada en matière d'I.A..

[00:21:54 Caroline Xavier apparaît en plein écran.]

Caroline Xavier : Les discussions d'aujourd'hui nous permettent de conclure que nous pouvons tenir compte de la sécurité dès la conception de l'I.A. et que nous le devons. Mais nous n'avons pas le temps d'attendre. Le travail politique, législatif et réglementaire doit avancer rapidement, sinon nous manquerons l'occasion de mettre en place les éléments nécessaires à la réussite. Nous ne voulons pas souffrir d'un manque d'imagination et nous voulons nous assurer de donner au Canada la possibilité d'innover et d'être compétitif.

Je crois que chaque fonctionnaire finira par jouer un rôle dans la mise en place de la sécurité dès la conception de l'I.A. Nous avons déjà relevé des défis inédits et grâce à la force de nos partenariats et de nos talents locaux, nous partons avec une longueur d'avance et, avec votre aide, nous arriverons à rester à l'avant-garde.

[00:23:11 Diapositif. Texte à l'écran : Avis de non-responsabilité : Cette vidéo est une compilation de points de vue d'intervenants recueillis sur une période de deux semaines en novembre 2023. De nombreux penseurs du gouvernement du Canada, de l'industrie et de pays partenaires contribueront à la sécurité de l'I.A. au Canada, mais ne sont pas présentés ici. Certaines personnes ont changé de poste depuis la réalisation de cette vidéo, mais leur point de vue demeure important pour ce produit, qui vise uniquement à susciter un débat.]

[00:22:32 Le logo du gouvernement du Canada s'affiche, puis disparaît.]

Liens connexes


Date de modification :