Une deuxième enquête sur la gestion par Google DeepMind des dossiers médicaux sensibles du National Health Service (NHS) de la Grande-Bretagne semble susceptible de réduire la capacité de l’unité Google à appliquer des techniques d’intelligence artificielle aux données sur la santé. Le rapport d’un groupe de réviseurs indépendants nommé par DeepMind vient deux jours après que le responsable de la protection de la vie privée du Royaume-Uni a constaté que l’entreprise a traité les données de 1,6 million de patients illégalement.
Les experts qui siègent au panneau de révision de DeepMind, qui ont eu un accès spécial aux systèmes techniques et au personnel de l’entreprise pour mener leur enquête, ne semblent pas être entièrement sûrs de la façon dont l’entreprise utilise les techniques d’IA sur les données sur la santé. L’un des commentateurs, le capital-risqueur Eileen Burbidge, a déclaré aux journalistes lors d’un briefing que DeepMind utilise un «genre différent» d’AI dans son application Streams, qui est utilisé par les médecins de l’hôpital Royal Free de Londres. Elle répondait à une question sur son utilisation de l’IA sur les données sur la santé. L’application est au cœur de la controverse illégale sur le partage des données; Il envoie des alertes automatiques aux médecins si les résultats des tests impliquent la présence de conditions telles que les lésions rénales aiguës.
La déclaration de Burbidge était curieuse car elle semblait contredire l’affirmation longue de DeepMind selon laquelle Streams n’utilisait aucune technique d’IA. Après le briefing, un représentant de DeepMind a contacté Quartz pour préciser que Burbidge a peut-être été averti et que Streams n’utilise aucune technique d’IA. L’épisode a suggéré que même quelqu’un de la longue expérience et de l’expertise de Burbidge, avec un an pour mener l’enquête avec huit autres personnalités éminentes, n’avaient pas tout à fait cloué sur quoi DeepMind utilise ou n’utilise pas ses technologies d’IA bien connues.
Il y avait plus de confusion autour des intentions de DeepMind pour les données NHS. Le président du tribunal, Julian Huppert, ancien député britannique, a déclaré que son «interprétation» des faits était que DeepMind avait initialement prévu d’appliquer sa technologie aux services NHS, uniquement pour «reculer» de ce plan après avoir découvert que Les données sur la santé n’étaient pas suffisamment bonnes pour être utilisées. « Comme [DeepMind] a discuté de cela avec des personnes, ils ont constaté que l’état des données et des flux d’information dans le NHS n’était pas aussi bon qu’ils l’espéraient », a-t-il déclaré en réponse aux questions des journalistes. « Ils ont dû se retirer de l’IA passionnante qu’ils avaient l’intention de faire au début, pour résoudre les problèmes de la façon dont vous obtenez l’information ».
En réponse à d’autres questions de Quartz, le panel a déclaré qu’il n’avait pas vraiment parlé à DeepMind au sujet de ses intentions pour les données du NHS. « Non, nous n’avons pas eu de conversations avec DeepMind sur la façon dont leur portée de ce qu’ils voulaient faire de Royal Free évoluait avec le temps », a déclaré Burbidge, répondant pour le panel.
La confusion des panélistes à propos de l’intention de DeepMind et l’utilisation de ses technologies soulignent la complexité de sa tâche. Les panélistes ne sont pas payés, bien que DeepMind ait prélevé 50 000 £ (avec un montant supplémentaire de 9 315 $ dépensé) pour leur travail. « Tous les commentateurs ont mis beaucoup de temps, en tant que président, j’ai mis énormément de temps », a déclaré Huppert. «Nous sommes configurés comme réviseurs non rémunérés. Il est devenu évident que certains d’entre nous sont insoutenables. « Le panel a recommandé que les membres du panel soient honorés avec l’option de faire un don à un organisme de bienfaisance. DeepMind a convenu (pdf) d’un paiement annuel de £ 6,157, ce que reçoit un administrateur non exécutif du NHS.
Le panel a déclaré qu’il élargirait la portée de son enquête l’année prochaine, y compris l’approfondissement dans le modèle d’affaires de DeepMind et son impact sur d’autres entreprises desservant le NHS. Les experts en matière de protection de la vie privée qui suivent l’affaire, comme Jon Baines, qui préside l’Association nationale des agents de protection des données, ont généralement approuvé les conclusions du panel, mais ont souligné que DeepMind devrait nommer un spécialiste de la protection des données dans le corps. Aucun des membres du panel actuel n’est un expert sur le sujet. La violation des lois sur la protection des données par Royal Free est ce qui a déclenché une enquête menée par le Commissariat à l’information de la Grande-Bretagne, qui a été mis en place pour défendre les droits d’information du public.
La participation de DeepMind au service de santé publique de la Grande-Bretagne l’a transformé en «foudre pour les préoccupations du public» sur la protection des données privées des personnes à une époque de l’IA, a souligné Huppert dans son introduction au rapport du panel. Cela a révélé une tension entre les nouvelles technologies et la confiance publique depuis des décennies, a écrit Fiona Caldicott, qui dirige le National Data Guardian, un organisme de surveillance.
« La confidentialité reste aussi importante que jamais », a déclaré Caldicott en réponse à la décision de l’OIC. «Les gens doivent être en mesure de dire à leur médecin, à leur infirmière ou à leur travail soignant des choses sur eux-mêmes et leurs besoins en matière de santé et de soins en toute confiance. Si une telle information est ensuite utilisée de manière à ce que les patients et les utilisateurs du service ne s’attendent pas, cette précieuse confiance sera compromise.
La Source: http://bit.ly/2tMirP5