Welcome everyone and I like to Thank You For accepting the opportunity to have Us and discuss about artif intelligence and Health and how we can analy access And discrimination potential and the usage in Health this will be some bilingual panel and the first spen english and SP puges if Any trl portugese I May be able to translate a bit and feel Free to Raise Hands and Ask questions throughout the panel um and I ask please Fernando Marina to speak as a bit slower can we spanish speakers I'm Lucas Marcon I'm from Ek which is an
organization in Brazil that works Since 1987 and we work to provide information and defend citizens Right in consumer Relations and so I like to start with uh our first panelist which is matthus Falcon He is a PHD candidate ot he also director of the brazilian Cent for Health studies and is an associate researcher at Health Law research Center of University of S Paulo so matus I'd like you to give your Perspective especially he stand which is area of study [Música] Fre thank you very muchas thank you for this invitation and than to as well for
promoting this very good discussion um so even though Native brazilian be speaking in english as requested but I did a presentation biling SL eas to if I could my screen does it work If I can you guys see yeah we can see Okay and I have 10 minutes right yeah Okay just to make sure that want The time so um yeah 10 minutes is a very short time for a very Complex discussion I feel there so much to do there's so much to talk about artificial intelligence and Health um so I try to pick a
few Key messages that we Have been seeing in the literature um we don't have Enough Case studies yet in this Field I know that ai is Being applied to he in different settings and I will be commenting a little bit of How is it Being applied with strong Potentials but I'd like to start by saying that One Thing that I do believe that we need and of course not only me this is not simply op Something That it seems quite Clear From This two research Cent that I'm representing here is that we need further assessments
we did better frameworks to assess in which extent ai Isa uh exerc its potential to make a difference in the Life of people and actually improving The Life and the Health of communities From This Community's point of view not from a more General point of view that very often does not Translate a group of people so with that in mind I TR to a few points here for our discussion trying to address the questions that were suggested by the moderation and I'd like to start to frame it um this issue between ai and Health as
a very old challenge in the Health sector It's Not Something That has started Now actually Something That Has started as old has started um in an age as old as Public Health is a Science which is the challenge of information uh It's very Basic to know that the Quality of the ai outputs in Any Field is the Quality of data so if you have a problem in your Data Set and this still with technical mattera You're Going to have limitations on the outputs of your ai enable device however I would go further in this discussion
and say uh What a kind of information What kind of data And What kind of information extracting From This data we are mobilizing to our ai devices information and Health and again This is a very old discussion uh has been concerned with Who is Being affected by a certain Health condition Where it happens like in which time of the Year when in which Part of the city for instance and why is it happening this are four very traditional questions that we see Cy Is Not Easy and Basic because more recently a lot of the critic
in this debates of information healths to this Point that I try to make in the line Health is the term socially byin by biological biomedical information we do need to concern to consider sorry other aspects such as How ci are developed What are the conditions in which one is Living uh what one is eating uh How is one related to their Spirituality to their traditions and this is something that has evolved during the 20th Century in particular we can see this in very Key documents like aa declaration enacted by the world Health organization and Unicef
in the 80s we can see this in Critical theories of epidemiology in Latin America like the Critical medicine and we can see this in the brazilian collective Health which is a different approach for Public Health from brazilian scholars that was Developed uh Together with our Health System and right to Health on the 70s and 80s and so on so The Question here is how getting back to ai how we are making sure that the data that we are using It's actually considering uh all the all the socially uh socially the term aspects uh that are
concerned as well with Health uh to try to make it more Clear I'm going to try to it in the language of ai and use a very important Concept that all of Us that Are working with ai like to discuss about Bias right i do feel like that a lot of the discussions that we have around ai points out to Bias and Bias is very much related with this issue of information and Health so we have a few researches about How frameworks for assessing the Health of someone Framework more General methodology developed instance to assess
if someone has a Heart condition What at the Risk of Someone To develop a Heal condition so a lot of those frameworks do not work to specific groups of people for instance we have a very Famous one with which is the framing uh Framework for for Heart disease Risk and a few researchers have Point out in the USA How it does not work well for African American populations and the reason for that is quite obvious we don't have Enough data about this populations in Canada where I Am right now There is a very important debate
about how we don't have Enough datasets about the Native population the indigenous population of Canada and then it makes US Wonder if the outputs of the ai devices that we are developing with those data sets are Enough to meet the needs of those populations uh especially when we consider that Health Goes Beyond um Goes Beyond Clinical information and also has to include All The Social factors and here like to Point out to Something else that I think it's a matter of concern we do see a lot of countries Brazil and Canada just two examples developing
Big state platforms to provide free Flow of Health data and then enable the development of ai naal Solutions devices etc but often this platforms Focus only and not other S of for instance statics on environment Health and SS of information that also shapes our Health in the 90s in Brazil we had a Very interesting Experience enabled as well by the panamerican Health organization theon the acronym for this Network was Hips and hip was Inter ex much much Beyond Clinical data and now we are discussing in Brazil if our platform for Health data is including all
this information Beyond merely Clinical data so I think This is a Key message that we we would need share as well uh Going a little bit to the issue of Bias on the data sets there's a few Types of Bias that we Should Be concerned With in healthc and looking at the literature I'd like to Highlight two of them One of them uh is quite uh quite discussed uh and I won't get very much into that because I feel like uh it has to Do With I just said in the former slide uh but i'
like to Highlight Another One which is contextual Bias uh contextual Bias Is this Type of Bias that happens when you have a device that's working quite well uh it doesn't Have a Bias in the outputs and you have tested it in large of populations and Everything Going quite quite well but then when you apply this Bias in another setting for instance a low resource setting uh the outputs won't be adequate for that setting so let us say a device was train in a High resource Hospital in the USA or in Canada and Being deployed um
in a low resource set in Canada sorry in Brazil or a different Country in a place With lower access to other Health Technologies maybe this outp won't be the best thing even though from a technical point of view it would be the best so It's Not something related with the technical Part of the ai here but How It's Being deployed in the Territory um contextual Bias I feel like it's a quick Concept to understand as well the issues this be my first SL and i just have to second so I'm going to go very Close
To very quick over that we have This three frameworks that I think we Should Be concerned to find the legal Blind Spot and potentials personal data protection Framework ai regulation today the regulation of ai is really really centered on agencies that regulate software Medical device This is quite Clear and the production mostly articles on ai regulation and Health Point out to software Medical device but it makes US wondering if This is enough for tackling The Challenge we have Ofor as a of concern if they do Enough and finally just finish with a message saying that
we should consider other Public capacities to Deal with The Challenge that we are presenting here including Public infrastructures like data Centers and also the procurement power of the state in other Words How the state could Shape the software it Wants and then Ask it from the Market and other as we quite often see but yeah we can Devel this Thank you very much I Stop here considering my is sorry for that Thank you so much matus It's always a pleasure to hear hear from You And Your knowledge in heth always amazes me and I always
learn so much from you and would like for to have some uh some more Concrete experiences Franco provid US with and I'd like to introduce him first He is a policy analyst at access now and he a lawyer from Argentina He is an Active member of the internet governance System for many years and previously worked at fundation vi li as a policy analyst Now he foc focuses on privacy surveill surveillance data protection and related issue is always a philosophy enthusiast eh as we we seen earli today and drar yeah Thank You For the introduction i
thought I was going to be introduced Much much shorter I think Being a policy an now is is enough but yeah when I was invited to speak at this panel I was intrigued by the way that I Should approach uh the the subject because uh it May have a lot of branches to explore and uh we we just heard One and it was very interesting so I was wondering What Should Be my um my my addition to This conversation And and the first thing I did was To kind of conduct a research On internet to
see What was already published on uh Health Health um mobile applications And and privacy and to be honest i was stroke by How many research papers Have been published on this on this subject um I did summar of them them and IED to share them with you my my Initial remarks the first one is titled an A Day Will probably not keep the doctor Away an Evidence audit of Health and Medical apps available on the Apple App Store and it was published by Luciano floridi from the Oxford internet institute and other authors recently so It's
really fresh and What really got my attention From This research paper was the fact that there are more than 350,000 Health apps available in Public app Stores so I Should repeat that Number 350,000 Health apps available in Public App Store so This is a whole Huge Market that is getting even bigger as we as we speak intrig fact from from that Number Is that less than half of these apps so approximately 44% uh Have No Evidence to support their claim of effectiveness so I'm sorry less than half of these apps so 44% do have Evidence
to support their claims of effectiveness so we have 64% 66% of apps that don't have sufficient Evidence to support their effectiveness so This is very very very worrying because we are Giving our personal data to applications that Have No Way of showing How effective they really are um This is also very worring when um a big Number of these Health apps Focus on mental Health and the Main demographic group downloading Apps is people from is people under the age of 25 years old so you already have an idea of how you know important The Question
of not only effectiveness but also privacy in terms of Health apps Is there are some advancements on how to monitor and audit applications but [Música] Nothing can prent using personal data to applications that Are not sufficiently audited or effective Another paper that I was very happy to find is title How private is your mental Health app an empirical study of mental Health privacy policies and practices this is from 2019 and it was published In The International Journal of And psychi and here it States clearly that breaching privacy May have significant repercussions including explo targeted advertisement
and negative impacts on an Individual's employability credit rating or ability to access rental housing it May also result in in in emotional harm particularly Among those mental Health app users Who already have High level of anxiety so have low levels of effectiveness but they can also Trigger your anxiety to a whole new level and there are Serious concerns around How they treat data How they Protect data and how Reaching privacy can affect users also there was Case found around 2019 by in Australia when Where the Australian Medical appointment booking up Health Engine was found to
be routinely sharing users Health information with Law firms to assistem with identifying potential clients for personal injury claims so you can see here how your personal data can be transferred to Third parties and those Third parties May use it for their Own purposes or commercial interest so This is of course really waring and I think we should discuss even further on How data is transferred from this Health apps to you know uh other vendors or commercial um parties another paper that I was that I found is titled undressed privacy Risk in accredited Health and Wellness
App aoss systemic assessment which was published in 2015 and reveal that 89% of apps Transmitted information to online Services Without encryption and 66% of this app send identifying information Over the internet Without encryption so they're not even using Basic technology such encryption technology and last but not least there paper title assessment of the data sharing and privacy practices of smartphones apps for depression and smoking Sensation which was also published in 2019 uh with that shared That uh data sharing with Third parties that included linkable identifiers is prevalent and Focus on Services provided by Google and
Facebook despite this most apps offer users no way to anticipate that data will be shared in this way as a result users are denied and informed Choice about whether such sharing acceptable to them so This is just you know Fast Fast examples on on how um challenging this question of Health data And privacy actually is I would like to finish this initial remark with my own reflection on I am not Expert on Health related data of course but I was wondering that if we are using mental Health apps uh then probably there Should Be A
challenge in translating uh our our our Own um concerns and conditions into quantitative data and ai Can Only Process quan data so if we are trying to Express Should Be better interpreted as quantitative realities or data then the impossibility of translating them into quantitative information should Create outcomes that are not I want to say effective but you know even Beyond that that are not nearly close to what a patient Should Be Receiving from a Medical um Agent so this should leave US with The Question of which kind of Health apps Should Be out there and
which kind of Health Should Be restrained from Public access This is a question that I am not prepared to answer Since I am not an Expert on on Health data but This is a question that appeared in my mind Uh in many many times After I was invited to speak at this at this panel so i wanted to share it with all of you to see if you also find it ing intrig And and if so um if you would like to make Any comments after all the speakers make their remarks I think i can
i can leave it uh here for Now thank you Lucas thank you Franco uh this this presentation makes US reflect Upon uh the improved access we Can have with ai and well how um mental Health apps are unregulated here in Brazil and I believe most America and most countries as we are still developing ai regulation and ai Framework and that that clashes with how we can think of improved access in the usage of ai Heal first of All introduce Fernanda and she is the research coordinator at Iris Instituto de referência internet Sociedade and she is
also a pd Cand in law technoscience and Inter interdisciplinarity at the Federal University of min she also has a master's degree in Network society in Federal University of Santa graduated Fernanda I like to introduce us to How the legal Framework is in Brazil in ai and talk a bit about the risks about the usage of a in Health especially with racial discrimination Please perfeito Olá boa tarde a todos todas e todes me nome é Fernanda eu vou aproveitar aqui só para tentar exibir minha tela vamos ver se se vai funcionar só um minutinho vamos ver
aqui que era para funcionar Vocês conseguem ver ya perfeito então Eh boa tarde muito obrigada pela apresentação eh para mim é uma honra tá Aqui com vocês hoje e gostaria de estar presencialmente Peço desculpas por não estar presencialmente Mas agradeço principalmente na pessoa da Marina e do Lucas né Por esse convite para compor o painel fiquei muito feliz de saber da aprovação e cumprimentar os demais colegas da mesa né uma honra também estar aqui com vocês para dividir esse espaço e fazer essa discussão tão importante eh como o Lucas já me apresentou e eu Tenho
só 10 minutos eu vou aproveitar para já passar para paraas discussões sobre conteúdo mas só para destacar então que sempre quando eh eu faço as minhas pesquisas a minha visão né o meu viés por assim dizer sobre a matéria é sempre racializado principalmente porque ess é o local que sempre me foi eh destinado na sociedade então eu acho que trazer esse olhar racializado também é o que permite que a gente tenha uma versão mais efetivamente Universal sobre as Coisas do que uma que não atravessa esse esse olhar racializado e aí antes de falar especificamente sobre
a regulação de I no Brasil eu gostaria de mencionar sobre esses dados né E aí eu acho que é muito bom poder ter falado poder falar depois do Mateus e do Franco justamente porque eles já deram eh já introduziram esse essa preocupação com os dados E aí eu gostaria de trazer Então essa perspectiva racializada e Brasileira de Quais são os problemas possíveis né relacionados à inteligência artificial na saúde e no Brasil eh não sei se vocês conhecem mas a gente tem uma política nacional paraa saúde da população negra especificamente no país justamente por reconhecer que
essa parte da população não tem o mesmo acesso à saúde que outras eh que outros segmentos populacionais eh para vocês terem noção também já só passou a ser obrigatório informação sobre raça e cor nos Documentos né dentro do sistema Único de Saúde o SUS a partir de 2017 com a portaria 344 E aí esse boletim epidemiológico ele traz uma série de informações inclusive são dois volumes sobre Quais as quais as doenças que mais atingem a população negra que há uma disparidade justamente pra gente olhar para esse recorte e também que o fato de que ter
dados disponíveis e de boa qualidade são fundamentais primeiro pra gente revelar Essa desigualdade racial e e do racismo para depois a gente poder lidar com as possíveis soluções Inclusive eu gosto muito de uma fala de uma fala não de um trecho do livro da djamila Ribeiro no livro que é o lugar de fala que ela traz que a gente não consegue lutar contra uma realidade que não é nomeada Então os dados Eles são primordiais pra gente conseguir compreender essa informação essa essa realidade né E desde 2010 essa esse registro de informação em torno da Da
questão racial na saúde no Brasil tem melhorado mas ainda assim dezenas de milhares de indivíduos são registrados sem essa informação a cada ano pra gente ter noção né O que que isso significa na prática e qual onde está essa desigualdade racial e o racismo na saúde no Brasil eu trouxe alguns três casos assim pra gente ter essa essa imagem na na na mente de uma forma melhor desenhada e o primeiro deles é essa informação né que foi tipo Disponibilizada pelo Centro de Estudos e dados sobre desigualdades raciais que aponta que 1/3 das pessoas negras nunca
foi ao dentista ou foi há mais de 3 anos em comparação a 20% aí eh em eh em relação a pessoas brancas ainda a plataforma identificou que 211,7 da população negra possua possuía plano de saúde ou odontológico até 2019 que os dados que eles pesquisaram era até esse ano Mas foi publicado o ano passado Enquanto para pessoas brancas era de 40% de acesso a planos de saúde e 34% das pessoas negras adultas tinham uma percepção negativa sobre a sua saúde vocal por outro lado a gente teve também um estudo sobre pesquisadoras e pesquisadores né Eh
publicado a respeito das desigualdades raciais nas experiências de parto e de gestação e esse estudo identificou que em comparação as mulheres brancas as mulheres declaradas de de cor preta Possuíam mais risco de ter um pré-natal inadequado ausência de acompanhante e menos anestesia local para procedimento de episiotomia então elas essas pessoas identificaram que havia ali uma desigualdade em relação à forma como mulheres negras eram tratadas desde a gestação até o momento do parto em comparação a mulheres brancas inclusive eles fazem essa separação também entre mulheres eh pretas pardas e brancas e identificam que eh das mulher
mules Negras passando pelas pares até as brancas o tratamento e o cuidado vai sendo melhor um dado mais recente também aquele estud de 2017 mas um dado mais recente agora de 2021 Quando iniciou a vacinação contra a covid identificou que das primeiras pessoas que foram vacinadas contra covid eh 3,22 milhões de pessoas a partir dos 18 anos eram brancas contra apenas 1,7 milhão de pessoas a partir de 18 anos que se Declararam negras e receberam a dose da fa isso é bem preocupante na medida em que a gente Salvo engano né o primeiro caso de
morte registrada por covid-19 no Brasil foi uma mulher negra que era empregada doméstica e também eh a primeira mulher que tomou a vacina No Brasil se não me engano foi uma mulher negra mas ainda assim a desigualdade no acesso à vacina foi eh reconhecido E aí como já mencionado o Que que a gente pode esperar de uma inteligência artificial que deve produzir previsões e recomendações a partir desses dados racialmente envasados eu acho que a gente tem tem tido né como o Franco também já trouxe alguns dados Mateus também trouxe a gente tem eh bastante algoritmos
que são utilizados nessa área e a gente tá aumentando o número de trabalhos também que tem analisados ess tem analisado Esses sistemas um caso que eu gostaria de destacar é esse de um algoritmo já utilizado comercialmente para classificar o atendimento para pessoas negras para pessoas e tá classificando na mesma categoria pessoas negras que estavam significativamente mais doentes do que pessoas brancas o fato curioso é que a raça não era considerado como um elemento paraa tomada de decisão pelo contrário a fonte dos dados eram Históricos médicos dos pacientes que tentavam estipular o valor provável do custo
daquele paciente pro sistema de saúde Só que isso refletia tanto eh possíveis decisões racistas de médicos que destinavam menos recursos para pessoas negras como também o fato de que né nos Estados Unidos a saúde ela é um tem um custo muito elevado e pessoas negras normalmente não conseguem ter ter acesso E aí aqui eu já tô com s minutos mas eu trouxe só esse trecho aqui de um Texto que eu publiquei recentemente com o Tarcísio em que a gente Analisa esse caso e fala que apenas excluir a categoria de raça Não é o suficiente para
evitar a discriminação algorítmica que pelo contrário né ela pode eh colaborar pra gente manter essa discriminação estrutural e não não visualizar ela através da desses sistemas algorítmicos eh outro caso também aqui apenas para mencionar brevemente também já estudos Que eh apontam que há uma grande possibilidade de que a inteligência artificial utilizada para identificar câncer de pele seja menos eh precisa em relação a peles negras do que peles brancas principalmente porque os bancos de dados utilizados para treinar essas inteligências artificiais não contém informações suficiente sobre etnia oou tipo de pele o que pode levar a risco
de cirurgias evitáveis e impedir o cuidado inclusive de Câncer em estado que ainda É possível tratar só que eu também gostaria de destacar aqui que o problema são os dados mas não somente os dados se a gente for olhar pro mercado de tecnologia hoje eh ele é predominantemente branco e Masculino sendo que mulheres negras por exemplo compõe somente 11% desse público de profissionais né e empresas na sociedade brasileira essas mulheres negras elas representam 28% mas são apenas 3% Daquelas matriculadas em cursos de engenharia da computação e 11% né dessas que trabalham em empresas de tecnologia
E aí para finalizar é muito importante a iniciativa que a gente tem tido aqui no Brasil sobre projeto de lei 2338 que hoje tá encabeçando né a discussão para um marco regulatório da ia no país e o ponto que eu gostaria de destacar é justamente a classificação que esse projeto de lei faz desses temas da Inteligência Artificial de acordo com O seu risco tem a categoria de risco inaceitável risco excessivo e a categoria de alto risco que que eu gostaria de destacar nesses segundos finais eh são considerados sistemas de alto risco aqueles que que apresentam
ali uma probabilidade grande de de de gerar riscos e impactos e a gravidade desses impactos também sobre pessoas ou grupos afetados e lá hoje na redação mais recente que tem sido discutida né a Gente teve umas três versões aí pelo menos ao longo de Junho mas essa última versão que a gente tem ela prevê aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos quando houver risco relevante à integridade física e mental das pessoas Então esse tipo de sistema tá classificado como de alto risco e o que isso significa na prática basicamente que a
gente tem medidas de governança e transparência específicas para esses Sistemas para tentar mitigar esses possíveis problemas e riscos que vem com eles aqui eu trouxe só alguns exemplos tem outras medidas previstas no texto também mas eu gostaria de destacar então a documentação né do funcionamento do sistema e das decisões envolvidas na sua construção a utilização de dados de de Treinamento representativos que contêm propriedades estatísticas eh apropriadas em relação às pessoas afetadas e que leva em conta características como Contexto geográfico comportamental ou funcional e medidas para mitigar e prevenir vieses discriminatórios e incentivar a diversidade nas
equipes de desenvolvimento algo que eu e o tarcis a gente pode concluir também analisando aquele estudo sobre o algoritmo utilizado para classificar o risco dos pacientes eh é que além dos dados também teve uma equipe de desenvolvimento envolvida na construção daquele sistema que não Eh foi capaz naquele momento de identificar esse tipo de viés racial E discriminatório então se a gente tá falando também de um mercado de tecnologia onde pessoas esses grupos afetados Não estão conseguindo acessar ou estão tendo menos acesso a gente também tá falando em uma em uma equipe de desenvolvimento que pode
deixar passar talvez mais facilmente esse tipo de viés e por isso é importante a diversidade nas equipes de Desenvolvimento também E aí eu deixo aqui só um QR Code né para quem estiver presente e quiser saber mais dessa carta que eh enquanto membra da coalizão direitos na rede e por participar né através do Instituto de referência internet e sociedade ois nós tivemos é uma carta inclusive com a participação da access Now e de outras organizações internacionais justamente para defender uma regulação brasileira sobre a que Proteja os direitos pensando aí que Como já foi mencionado né
uma regulação pode ser eh uma proteção a mais para que a gente tenha parâmetros mínimos de avaliação de revisão e de auditoria desses sistemas algorítmicos E aí aqui eu encerro a minha fala mas fico à disposição pra gente seguir o debate agora obrigada Thank you so much Fernanda eh a really interesting Perspective because it relates a lot with What Mat has said About How data is socially constructed and obtained and you can you can separ it you can't uh extract data Without considering The reality It's inserted in and which it came from so uh I
like to introduce my colleague Marina uh she's a bachelor of Law univers S Judas she's a lawyer and a fellow researcher in telecommunication digital rights program atec and she leads our Organization work in data and Health issues and I like to ask her to share a bit How civil society can Deal with those risks and how to improve access in in Health and speak portugese as well muito obrigada Lucas pela introdução eh vocês estão vendo a minha tela bem ya Ah que bom eh bom eh eu tô numa posição bem privilegiada aqui por est falando
por último eh foi muito bom ouvi-los e muito das falas de vocês dialogam com Com apresentação do idec e também numa mais uma vez privilegiada de do Lucas já ter apresentado o IDC e falado um pouquinho do nosso trabalho então eu vou começar a minha apresentação falando um pouco sobre a nossa interface de dados e saúde eh como Lucas mencionou tanto ele como eu eh trabalhamos no programa de telecomunicações e saúde e direitos digitais mas a gente tem uma interface de saúde digital de dados e saúde junto do programa de saúde é um esforço Conjunto
para unir essas duas áreas considerando que há especificidades em cada Campo que contribuem para essa discussão A gente tem observado ao longo dos últimos anos um crescimento da Saúde digital né como o Mateus disse na fala dele eh a saúde digital informações em saúde dados em Saúde São eh uma discussão antiga do campo mas nos últimos anos essa discussão tem ganhado cada vez mais espaço e cada vez mais profundidade em razão dentre outros Fatores das Ferramentas de Inteligência Artificial que tem sido utilizadas no campo é claro que a gente já coletava dados de saúde há
muitos anos a gente sempre coletou dados de saúde mas ferramentas de Inteligência Artificial eh oportunizam que esses que esses dados sejam utilizados de maneiras diferentes e que inclusive alterem modelo modelos de negócio de saúde eh até então observados no nosso país nesse sentido o idek observa primeiro que a saúde Digital ela tá numa encruzilhada porque por um lado ela pode contribuir com a efetivação do direito à saúde eh por exemplo na coleta de mais dados relacionados à saúde que foi o que a Fernanda comentou em relação à população negra como a gente precisa aumentar essa
coleta de dados entender Quais são as doenças que afetam de forma mais específica essa população e ao mesmo tempo a saúde digital ela também pode aumentar desigualdades vigilâncias e Riscos à proteção de dados pessoais nesse sentido as ferramentas de Inteligência Artificial elas carregam dois principais riscos consigo primeiro a ampliação da inequidade e segundo a discriminação pelo perfil individual eh nesse início da minha apresentação eu vou trazer alguns casos eh relacionados eh a esses dois principais riscos o primeiro Na verdade eu queria tratar Bem brevemente sobre dados em farmácias é claro que esse campo ele é
muito amplo Existem muitos riscos e muitas preocupações relacionadas aos dados em farmácia mas o que a gente tem informações suficientes para concluir nesse momento é que há uma perfilização A partir dessa coleta de dados né Há eh o uso de ferramentas de Inteligência Artificial paraa publicidade paraa exploração comercial dessas pessoas além disso a gente também observa o uso de ferramenta de inteligência artificial para Como foi o caso que a f a Fernanda Mencionou para eh mediar o acesso dos usuários à saúde então eu trouxe esses dois exemplos né o primeiro de algoritmos que impediram pacientes
negros de receber Um transplante de rim e o segundo de scores de risco que penalizam pacientes negros que foi o caso que a Fernanda analisou pra gente eh esses dois exemplos eles demonstram como algoritmos de Inteligência Artificial eles podem diminuir o acesso à saúde aprofundar a desigualdades Diminuir o acesso a medicamentos no caso do CPF em farmácias eh trazer consequências ao mercado de trabalho e também responsabilizar os indivíduos pela sua própria saúde cujas políticas no entanto devem ser coletivas as nossas segundas preocupações estão relacionadas a a traçar um perfil individual para esses usuários nesse sentido
o compartilhamento de dados eh ele traz uma preocupação A Mais é claro Existem Várias preocupações mais uma vez relacionadas ao compartilhamento de dados mas uma delas é a possibilidade de que esses dados sejam utilizados para traçar perfis individuais no mercado de seguro no mercado de seguros brasileiros da Saúde suplementar é uma demanda antiga das prestadoras e individualizar o cuidado e oferecer produtos a partir das necessidades dessa pessoa no entanto o risco que isso traz é tanto a seleção de risco né negar acesso à saúde a Determinadas pessoas o que é vedado no nosso país mas
no entanto A análise de risco não é vedada que é você justamente traçar esse perfil entender quais são os riscos e qual quais são os riscos para oferecer um plano eh de saúde para determinada pessoa e aumentar eh o valor desse Plano A partir desses riscos individuais mais uma vez esse caso demonstra pra gente uns riscos de responsabilização do indivíduo por sua própria saúde o que e no entanto que é Contra a lógica da Saúde da saúde coletiva que é que a saúde ela é gerada socialmente e são diversos os fatores não apenas os fatores
individuais que compõem os riscos à saúde de uma de uma determinada pessoa então a partir desses dois casos o que a gente pode observar de forma muito similar a que os meus colegas já Já trouxeram é que a inteligência artificial na saúde Ela traz riscos relacionados há dados de Treinamento que não representam Adequadamente a sociedade a incorporação de modelos de negócio que não são alinhados à lógica da saúde né então por exemplo modelos alinhados à exploração econômica e unilateral desses dados a análises preditivas e de risco e a responsabilização desse indivíduo Além disso elas também
trazem um solucionismo tecnológico que dialoga por exemplo com o que o Franco trouxe sobre os apps de saúde mental Qual é a real necessidade da gente ter esse tipo de tecnologia Será que a gente não deveria est investindo tempo e dinheiro em outras em outras soluções seja tecnológicas ou não e também esses algoritmos eles acabam mediando as oportunidades sociais eh da Quais as pessoas para Quais as pessoas necessitam para ter acesso à própria saúde né um algoritmo que decide Quais são os pacientes a serem atendidos primeiro ele cumpre um papel essencial e o risco dele
aprofundar essas desigualdades é muito grande eh a partir Dessas considerações desses casos que a gente tem analisado nos últimos anos o IDC formulou e lançou no início do ano a agenda de dados em saúde com recomendações para uma saúde digital mais inclusiva eh esse documento ele foi formulado a partir dos casos que a gente tem atuado ao longo dos últimos anos e ele fornece uma agenda de discussão para aprofundamento eh das discussões sobre saúde digital no Brasil e a partir de agora eu gostaria de falar um pouco eh Brevemente sobre essas recomendações a gente entende
que a agenda de saú de e saúde para garantir uma efetiva promoção do direito à saúde por meio da digitalização ela deve ser baseada em quatro pilares principais o primeiro segurança de dados o segundo é transparência e mitigação de assimetrias informacionais considerando que o mercado de saúde é um mercado marcado por assimetrias e o mercado de tecnologias também eh o terceiro Governança democrática e centrada em usuários então a gente entende por exemplo a necessidade além de uma regulação de A além da aprovação do pl 2338 a gente entende também a necessidade de uma governança específica
pra saúde que considere essas especificidades como por exemplo e a saúde coletiva eh e como a saúde e o SUS vem se desenvolvendo no Brasil e por fim uma última recomendação que eu gostaria de destrinchar um pouco mais é a vedação A exploração econômica de dados é claro que no setor privado o tratamento de dados ele tá relacionado à exploração comercial e a lucros o que o idec é contra no entanto é uma exploração unilateral que Ignore os acúmulos da saúde coletiva e também Ignore os benefícios e os riscos envolvidos aos usuários de saúde nesse
sentido a gente entende por exemplo que as tecnologias de as ferramentas de Inteligência Artificial elas devem ser treinadas com Dados que adequadamente reflitam a nossa diversidade evitando eh equidades sociais por exemplo esses essas ferramentas de Inteligência Artificial também devem ser submetidas a um verdadeiro escrutínio público para que os usuários entendam minimamente como elas funcionam e para que a sociedade civil a academia também possa estudar essas essas ferramentas e entender os vieses eh a quais elas são submetidas por exemplo é fundamental também Garantir medidas de transparência e e por fim garantir que essas ferramentas de Inteligência
Artificial e todas as as tecnologias que envolvam processamento de dados sejam compreensíveis eh aos usuários de saúde né que esses titulares de dado eles possam exercer seus direitos no tratamento de seus dados além da agenda de dados e saúde eh formulada pelo idec Eu também gostaria de de aproveitar a oportunidade e falar brevemente sobre a carta aberta eh eh Formulada pela sociedade civil formulada pela coalizão de direitos na rede também né que além de atuar eh no no grupo de trabalho de Inteligência Artificial também atua no operativo de saúde digital que reconhece a necessidade de
um marco regulatório paraa Inteligência Artificial que reconheça o alto risco dessas tecnologias a necessidade de responsabilização objetiva e solidária a necessidade de revisão humana das decisões automatizadas que considere os Vieses na na avaliação e implementação dessas tecnologias e por fim que elas sejam abertas à participação social e ao escrutínio público e por fim eu também trouxe aqui brevemente o policy paper pro G20 que a gente tem eh elaborado ao longo desse desse último ano Mateus ele é coautor nesse nesse trabalho também ele ainda tá em frase de de editoração vai ser publicado em breve mas
nesse documento a gente também traz Alguns algumas coisas que devem ser observadas para promover a segurança e Equidade em ferramentas de Inteligência Artificial aplicadas à saúde de forma muito similar às contribuições que eu já trouxe a gente pede por maras transparência e explicabilidade dessas ferramentas maior diversidade no treinamento desses dessas ferramentas eh revisão humana e também medidas específicas para evitar a discriminação bom Por fim eu só gostaria de agradecer Mais uma vez os panelistas que me antecederam e também a cpdp pela oportunidade de falar um pouco do trabalho do idec aqui e me coloca à
disposição paraas perguntas Thank Marina [Música] usiv andal [Música] [Música] anys Bom dia meu nome é Lorena eu sou Pesquisadora no programa de Universidade de inclusão aqui na FGV e também do grupo de Economia inovação na UFRJ eh e eu queria saber um pouquinho de vocês eh na verdade tendo em vista que a gente já tem né A lei lei geral de proteção de dados enfim o nosso principal marco regulatório com relação a à proteção de dados que também essa né A proteção de dados sensíveis etc mas tendo em vista esse né essa esse avanço da
discussão sobre inteligência artificial Especificamente eh eu queria entender Como como que vocês enxergam as fragilidades que a lgpd ainda tem né enfim que precisam ser endereçadas por um novo Marco se esse foi o caso eh quais seriam esses problemas e também os problemas da própria anpd eh enquanto eh instituição que seria responsável por exemplo para para lidar com casos de me vazamentos etc e que se eu não me engano sequer houve até hoje algum tipo de pronunciamento ou conduta um pouco mais Efetiva com relação a por exemplo a coleta de dados em farmácias né A
é uma coisa uma perspectiva que eu acho que é muito importante a gente colocar nessa situação por exemplo olhando como como usuário também de serviço de saúde de farmácia enfim a gente precisa pensar que o o consumidor ele não é ocupado por compartilhar o seu CPF acho que a gente colocar essa responsabilidade né no consumidor é um é uma é é injusto e é um problema muito grande mas ainda assim Ele é ali compelido né tendo em vista toda essa dinâmica da do do Comércio e saúde a fazer isso eh e aí a gente não
tem por exemplo a npd com uma uma prática né mais incisiva de pensar eh eh como é que esse como é que essa dinâmica tem se dado não só eh em São Paulo aqui no Rio mas enfim em todos acho que todas as cidades no Brasil a gente vai encontrar farmácia fazendo esse tipo de de de de coisa e outra também eh se esses Marcos regulatórios eles eh eh Precisam ou enfim como como que a gente endereça um pouco mais eh eh essas obrigações de Transparência por parte eh eh dos aplicativos Mas também da própria
Indústria Farmacêutica né e puxando um pouco a sardinha de como que ela deveria por exemplo eh eh demonstrar né que usos são esses e enfim como é que a gente eh deveria pensar esse marco regulatório e essa atuação institucional obrigada Obrigada qual que é seu nome Lorena Eh Bom primeiramente Parabéns gente pelo painel Achei bem interessante eu sou Adriana eu sou a DPO do Ministério da Saúde eh eu anotei umas coisinhas aqui queria até complementar também a a pergunta ali da Lorena que se falou da questão das Farmácias a anpd se manifestou fez uma manifestação
mas não só sobre isso reforçar a questão dela não ter ainda de fato nem ter incluído na agenda regulatória dela nenhuma questão de Saúde Então isso é uma coisa que tá todo mundo no pé né nós todos aqui eh a gente tá integrando agora o Conselho Nacional de Proteção de dados então a gente pretende levar a nossa pauta diretamente lá paraa npd eh e indo aqui então para as minhas perguntas eh mas eu queria endossar viu Lorena a sua eh essa sua esse seu pleito eh bom primeiro eu gostaria de perguntar pro Franco se ele
pode disponibilizar né os nomes desses papers que ele citou que Eu achei bem interessantes né a gente ter esses dados em mãos assim achei que você colocou questões ali bastante preocupantes realmente que vão inclusive na na até na numa coisa que a gente estava discutindo ali no num outro painel o que que é dado de saúde a lgpd não diz o que que é dado de saúde e a gente acabou conceituando isso na portaria Nossa do programa surj digital a gente colocou lá o que que a gente entende que é dado de saúde para fins
Pelo menos de implementação do programa e é o conceito que a gente vai utilizar no âmbito do Ministério mas de fato né tem que a gente teria que ter o órgão regulamentador falando isso E aí a gente coloca inclusive nesse no nesse conceito de dado de saúde a questão da dimensão social porque a saúde ela tem essa dimensão social que o Mateus falou inclusive né e Fernanda já também puxando sardinha eh porque você falou também eh inclusive citando o PL 2338 a Gente pediu uma alteração no PL que foi até contemplada pelo Senador Eduardo Gomes
no sentido de colocar a saúde ela continua sendo de alto risco mas a gente explicitamente pediu para colocar a dimensão social porque o conceito de saúde eh na forma da Lei 8080 e da da Constituição também ele tem essa dimensão social então a nova redação antes ele falava só assim é alto risco aquilo que eh eh atinge a integridade física aí eu Aí a gente né a gente que eu falo governo federal tá S uma não só o Ministério da Saúde mas o Governo Federal como todo falei gente mas tem integridade mental aí eles colocaram
mas depois a gente pediu uma nova redação e e de fato não foi a que nós necessariamente a gente mandou mas o o o Senador Eduardo ou eh é Eduardo mesmo né Gomes colocou que foi no sentido de colocar eh assim que quando o sistema representar riscos significativos da Saúde Humana integral na sua dimensão física mental e social porque o o aspecto social também tá considerado ali no no conceito de saúde e nas dimensões individual e coletiva porque tem a saúde coletiva também tem as questões de ep né as questões epidemiológicas saúde coletiva que também
não estavam contempladas Então como que a ia né ela também deve ser considerada aor risco não só na dimensão da Saúde individual Mas também da saúde coletiva e um um Dado que eu queria trazer pra Fernanda também Fernanda nesse ponto que você falou que é muito preocupante com um terço dos negros nunca foi ao dentista a gente tem um projeto em conjunto em desenvolvimento ainda tá com a FMG para monitoramento da saúde bucal justamente para fazer a gestão mais equitativa no âmbito do SUS da saúde bucal da população brasileira então aí já é um outro
um um uma outra tá da Inteligência Artificial ela sendo utilizada para Promover Equidade no atendimento à saúde do SUS e Especialmente na saúde bucal mas tá em desenvolvimento Tá mas a gente inclusive colocou esse projeto no plano brasileiro de Inteligência Artificial que ainda não foi aprovado mas que está eh sendo discutido no âmbito do mcti Tá bom acho que esses são os pontos que eu queria colocar e e vamos continuar o debate ifish with your inial remarks like to out this is that we are Very looking into that is Lack of transparency and even administra
investigations con dat he data and data breaches and data leaks from for example I believe There is one from Santa Catarina that was recently concluded and even though found the state and it was Just a recommendation that Santa catar should adjust policy For for it doesn't Happen Anymore but that was just you know didn't have very much longer Fernando just pass to you and this is something that we are very much looking INTO and it Should Be more spoken and we believe inp has potential to be uh this DP The National Authority to um visualize
also Health as Part of something they can regulate and they can investigate but we still have to see in Practice as Adriana out it is in agenda at least until the next 25 26 Will release their New agenda so Fernanda do want to make your final remarks sim eh desculpa atropelar o a ordem que havia sido planejada só porque como eu tenho compromisso na sequência para poder reagir à perguntas primeiro agradecer novamente pelo espaço agradecer a cpdp ser as perguntas de quem continuou conosco até agora e eu acho que só dois comentários Breves Assim acerca
da proteção de dados eu gosto muito do que da ideia de racialização da proteção de dados que a Bianca Kremer traz ela fez uma fala no painel do cgi ano passado ano passado retrasado como keynote acho que foi ano retrasado na verdade sobre isso e também tem um texto dela publicado no jot em que ela vai falar da gente olhar para lei geral de proteção de dados e entender que por exemplo o titular de dados que tá descrito ali é o titular de Dados ideal que é o que a gente espera né que é aquele
que ten assegurado todos aqueles direitos mas ela parte dessa lógica também da racialização da proteção de dados por a gente entender que esse campo assim como outros por causa do racismo que é estrutural no Brasil eh não opera da mesma forma para todos para todas as pessoas para todos os cidadãos E cidadãs então como é que a gente faz uma ão de dados que seja efetiva e que auxilie eh as pessoas que Muitas vezes nem sabem que podem ter os seus direitos podem ter os seus dados protegidos de uma maneira mais adequada Então eu acho
que a gente não tem a resposta né mas acho que fica muito essa provocação pra gente dentro de cada função em que a gente vai ter que lidar com um dado dado na saúde um dado sensível e utilizar lgpd para tratamento entender que também tem uma interferência racial na forma como essa proteção de dados opera sobre diferentes Eh segmentos da população o segundo ponto é agradecer agora desculpa eu acabei não Anotando os nomes mas aqui tá representando tá representando né mas não sei se tá representando mas tá aqui e faz parte do Ministério da Saúde
eh e aí acho que nesse caso são dois comentários Breves também mas eh sobre a questão da do uso Daia para a gente realmente ter resultados positivos eu acho que é exatamente isso sabe sabe eh eu vejo a gente tem muita essa tentativa De utilizar a inteligência artificial em lugares que a gente sabe que ela é reconhecidamente falha então a gente tenta colocar saindo do pouco daá da Saúde tenta usar Utilizar reconhecimento facial para segurança pública tenta criar policiamento preditivo que são tecnologias que a gente sabe que falha Muito provavelmente eh independentemente dos dados que
são que alimentam Essas tecnologias porque a gente tem outras camadas operando sobre elas e aí por que Não utilizar então a inteligência artificial E aí voltando como no campo da Saúde paraa gente conseguir reduzir essas desigualdades e não limitar acesso a diagnósticos limitar acesso a exames então eh fico muito feliz com esse tipo de utilização porque é justamente para usar a ia para reduzir essas desigualdades que eu vejo uma um potencial realmente muito grande e sobre a leitura do projeto de lei sobre a escrita né a redação do projeto de lei 2338 eh eu acho
que a gente ainda tem muito a melhorar e assim em vários aspectos acho que a gente tá num momento de eh sequentes adiamentos de votação na comissão temporária da Inteligência Artificial o que preocupa Porque apesar de não ser o ideal esse PL 2338 é o mais robusto que a gente tem né A gente evoluiu muito desde uma carta mais uma carta de princípios que a gente tinha com 21 de2 com pl 21/2020 e agora o 2338 Trazendo pelo menos aí uma lista de alto risco pra gente se preocupar e traçar essas medidas de governança eh
mais específicas e eu acho fundamental esse ponto que você trouxe da gente olhar pra saúde sobre ess sobre esses outros aspectos e não somente sobre essa integridade física e mental né que inclusive foi eh algo que foi acrescentado recentemente justamente porque antes estava colocando todo o tipo de algoritmo utilizado na saúde Como de alto risco isso poderia por exemplo impactar aqueles que fossem classificados como de menor risco mas eu acho que a gente tem um espaço importante de diálogo para aprimorar essa escrita e eu acho super relevante esse ponto que você trouxe Com certeza é
algo que a gente tem que eh insistir para que seja alterado para que a gente não também limite o alcance desse dispositivo que pode ser muito protetivo né E aí eh eu peço desculpa se Eu tiver que sair antes do encerramento do painel mas muito obrigada novamente Mateus Franco Marina Lucas pela pela conversa anotei várias coisas aqui que é sempre bom participar desses espaços obrigada a quem estava assistindo e fico à disposição também para a gente seguir essa discussão em outros espaços Thank you so quickly I am not fluent in puges Ness I will Take
a Risk and I Will I will read from the bill you mention that there was an update recently in congress That's What I understood from from your com and one thing you can find in aied to in with Human rights with International Human rights Law and it was this second half of article 13 number one thats I mean an a System will be consider of risco they will be forbidden quando Empreg técnicas subliminales que tenam por objetivo ou por efeito induzir o comportamento da pessoa natural ou do grupos de maneira que cause o seja blá
BL BL BL blá so the second Half from the maneira que all of That Should Be eliminated but then you can find the same configuration on article 14 regarding Systems of alto risco when Fernanda just mention letters aplicações na área da saúde para auxiliar diagnósticos e procedimentos Médicos quando houver risco relevante a integridade física e mental das pessoas I underst there modification quando risco relevante yeah elimin SY appli diagn procediment mic High Risk per including A consideration Try Balance qu over ris relevante fal Supp a reduction of the safs That Should Be In place to
Protect Human rights so This is something that I'm not sure if we it out in in the letter maybe Fernanda Knows this Better Than I because I was like collaborating in kind of last Fashion but these are the things government Should Be looking into whenever They make coms or contributions to the literature of of the ai Bill here in in Brazil because all of This configurations what they are doing at the end is they are reducing the level of protection that will be granted to citizens who will be in charge of assessing that there risco
relevante inte fica oal be in of Body in in practice wouldn't be better if we Just eliminate the second yeah I Mean for me It's pretty Clear but I still think we GNA have to insist and work around This Kind Of language not only in the brazilian ai Bill but also in the rest of the ai Bills that are Following the example of the eu This is coming from the eu but if you go and check What civil society in the uset you will find that they are very much in Line of what I'm saying
right now uh I just Wanted to clarify that that that Point Uh I understand that we are Way past our time right é Lucas Desculpa também só para reagir brevemente eu acho que a colocação do Franco é fundamental eh eu trouxe aqui principalmente para defesa do pl 2338 diante desses adiamentos que a gente tem tido né mas eu acho fundamental que a gente possa refletir melhor sobre isso e ver se a partir do quando é realmente necessário eh pensando aí na proteção dos direitos das pessoas frente a esses Sistemas like to invite matus to give
his final remarks please bom V terminar aqui então em português né considerando que os dois comentários foram em português eu prometo que eu vou ser bem breve e eu queria agradecer primeiro por essa oportunidade de ouvir aqui Franco Fernanda Marina Lucas também além da Lorena e da Adriana né comentaram e muito legal obrigado ao idec também pelo Convite por terem organizado esse painel nesses comentários finais eu quero só desenvolver um raciocínio aqui que eu acho que complementa um pouco que Fernanda e Franco disseram agora né eu não vou nem muito tocar nessa questão do pele
que acho que já foi muito muito bem colocada Mas vamos partir então de uma questão teórica que foi a questão que a Lorena colocou um pouco né Por que que lgpd não é suficiente Eh Ou então não só lgpd né o modelo europeu do gdpr também Não é suficiente eh eu acho que existem algumas autoras né Eh vou citar o nome que constróem uma teoria muito interessante sobre como esses eh quadros de proteção de dados trabalham muito com relações individuais quase contratuais entre a pessoa titular de dado quem tá usando né Eh e a questão
do uso de dados especialmente inteligência artificial é uma questão muito mais coletiva uma questão muito mais social né Por exemplo quando a gente pensa aí nessa belíssima Excelente apresentação que a Fernanda feit né com esses dados sobre a questão racial no Brasil e como que eh um um um dispositivo médico né com base Inteligência Artificial pode exacerbar essas desigualdades né Assim como pode várias outras a gente tem que é uma questão muito mais coletiva né Eh o próprio Valor Econômico dos dados não tá simplesmente ter o dado individual Ele tá em ter uma base de
dados né e inferir A partir dessa base de dados que Desenvolve esse argumento é uma autora chamada Salomé vilen que eu gosto bastante né trabalha com num artigo chamado uma teoria relacional a da economia de dados assim como uma ativista e também autora indiana chamada guru murti que faz essa crítica Ou pelo menos aponta essa limitação do gdpr na Europa que também serve para lgpd no Brasil então a gente precisa né de Marcos legais ou então de algum tipo de regulação que enderece esse quadro Mais Amplo e E aí surge justamente as discussões em torno
por exemplo do pl de né e o PL de acho que já foi muito bem trabalhado aqui pelo Franco pela Fernanda então eu vou apontar para outro lugar né que também tá um pouco na pergunta da da lorina grande parte do debate sobre regulação de a na saúde tá nas agências regulatórias né a fda nos Estados Unidos Health Canada aqui no Canadá Anvisa no Brasil e a eemi na Europa né a enfim Várias agências aí regulatórias que estão regulando esses dispositivos médicos e as limitações dessa regulação são muito semelhantes a Talvez as do plga né
que é uma redução de Esopo eu gostei desse exercício que o Franco fez agora de ler projeto de lei porque a gente vê também na regulação de software para dispositivos médicos que se reduz muito para aqueles aplicativos muito específicos de altíssimo risco muito focados no contexto Clínico Quando que a Regulação pode se dar né E aí a gente tem uma outra questão que é justamente os limites das autoridades para regular de forma e fiscalizar de forma adequada né acompanhar realmente o desenvolvimento do que tá sendo acontec tá sendo colocado aí né novamente voltando apresentação do
Franco né se a gente pega esses vários dispositivos de saúde mental que estão aí no mercado né muitos deles fogem até da regulação de software dispositivos médicos da visa e Ainda que entre nessa regulação como que a VISA vai monitorar tudo isso monitorar a viés algoritmo né que também é uma disciplina um pouco nova na cência da Computação relativamente falando ou seja tudo isso é muito desafiador especialmente num contexto de enfraquecimento do aparato estatal de regulação né a gente tem aí que Anvisa né E quem conhece o setor farmacêutico sabe disso tem uma história muito
bonita Anvisa sempre foi uma agência destacada Que agora por conta né de desfinanciamento né falta de contratação de pessoal tá perdendo um pouco desse poder né e a gente tem aí uma tendência de uma atuação no mínimo mais tímida das agências regulatórias incluindo a própria npd então eu colocaria tanto essa questão de um Marco legal e regulatório que realmente englobe tudo que a gente precisa em termos de a e saúde e também e de estrutura regulatória suficiente né para endereçar Essas questões todas né porque às vezes né a gente já começa a discutir a regulação
tirando do escopo da regulação uma porção de coisas importantes e aí a regulação fica mais en esquecida ainda então eu colocaria nessas formas acho que a pergunta da lorina nem seja essa discussão enfim queria só finalizar aqui agradecendo mais uma vez desejar para todo mundo muit aí uma boa tarde Thank you so much Mateus Marina do you want to Finish sim obrigada Lucas bom primeiro falar um pouquinho da da pergunta da Lorena eh como a Adriana já adiantou uma das lacunas da lgpd é a falta de conceituação eh de dado de Saúde ao mesmo tempo
a lgpd traz alguns avanços que para serem concretizados a gente entende que devem ser regulamentados Então o a base do consentimento por exemplo eh tem especificidades do setor de saúde que devem ser regulamentados pelo pela npd Né então ass simetrias informacionais potencializadas quando a gente fala de saúde devem ser consideradas a base de de tutela da saúde por exemplo ela deve ser concretizada é uma base que hoje é muito Ampla Então quais são os as situações concretas onde ela deve ser aplicada e quais são as situações em que não por exemplo situações relacionadas à exploração
comercial eh outras eh especificidades né a vedação a a seleção de risco vedação ao compartilhamento de Dados para exploração comercial eh a gente entende que que esses aspectos da lgpd é fundamental que ele seja seam regulamentados e que as especifidades do setor de saúde sejam consideradas eh como o Lucas Adriana já comentaram também saúde não tá na atual agenda regulatória da autoridade existe uma expectativa de que saúde entre no próximo biênio Então esse é um esforço inclusive da sociedade civil para que esse tema entre seja regulamentado eh o Que a gente tem observado também eh
da autoridade é que falta uma transparência e falta um enforcement para fiscalização de aspectos relacionados à saúde Então hoje na coordenação de fiscalização por exemplo além do processo de vazamentos também há um procedimento fiscalizatório sobre CPF em farmácias que Como você mesma disse Lorena Não não é possível que a gente eh culpabiliza o usuário por fornecer seu dado para receber um desconto inclusive faz sentido que ele Faça isso infelizmente né se se há essa lacuna na na regulação de medicamentos também um outro problema relacionado ao CPF em farmácias então é fundamental que as autoridades envolvidas
atuem para proteger esse usuário consumidor e titular que é vulnerável nessa relação eh Além disso também eh uma articulação com com outros órgãos essencial com a Anvisa com o ministério da saúde que passa a compor o o conselho né Tem uma uma cadeira no conselho é muito Importante que esses órgãos se articulem e troquem experiências para a observar essas especificidades tanto do setor de tecnologia quanto do setor de saúde e e faço couro também essa discussão é muito triste a gente tá caminhando pro final né porque a discussão ficou muito interessante agora com essa última
fala do Mateus essa análise sobre sobre o PL 2338 que é eh a gente observa a produção de dados a partir de um viés muito individual mas a Saúde ela parte de um outro lugar que é um lugar ativo e que nesses últimos anos eh um enfraquecimento do SUS um enfraquecimento do sistema da Saúde suplementar também eh tem gerado maiores preocupações e maiores riscos mas é necessário observar então eh a proteção de dados no setor de saúde A partir dessa lógica coletiva e de riscos e benefícios coletivos Então essa necessidade de um marco regulatório não
só para ia mas de um Marco regulatório também paraa saúde digital que leve em consideração todas essas especificidades e que consiga fazer esse mix de Campus funcionar de uma forma adequada eh enfim a gente já tá aí no início da tarde né então boa tarde para todos agradeço mais uma vez o cpdp e todos os nossos palestrantes e me coloca à disposição para continuar essa conversa em outros espaços também Thank you so every than for lunch