Artigo

Medicina de precisão: fatores determinantes para seu aparecimento e crescimento

O envelhecimento da população mundial e a consolidação e barateamento das técnicas de biologia molecular seriam os pivôs para o crescimento dessa nova tendência da Medicina?

Daniela Uziel

A Medicina de Precisão se baseia em características genéticas dos indivíduos para redefinir tratamentos e, potencialmente, impactar em seus custos. Para seu aparecimento, podemos destacar alguns fatores, como o desenvolvimento da ciência, que permitiu a expansão do conhecimento sobre as vias intracelulares – que, estando alteradas, causam doenças – e das bases genéticas por detrás dessas vias.

Em paralelo, o uso desse conhecimento para fins de diagnóstico se expandiu pelo aperfeiçoamento e barateamento dos custos de técnicas moleculares, sendo um fator crucial. Também pode ser destacada, como reforço no aparecimento da Medicina de Precisão, a tendência ao crescimento da Medicina Baseada em Evidência, que defende o uso de dados provenientes de pesquisa de alta qualidade aliados aos dados individuais, a fim de ajudar no diagnóstico e tratamento.

Finalmente, um fator que fortemente contribuiu para o fortalecimento da Medicina de Precisão foi o aumento da prevalência de doenças crônico-degenerativas, intimamente ligadas à melhora da qualidade de vida e ao consequente envelhecimento populacional. Para essas doenças, observou-se uma variabilidade individual de resposta aos tratamentos, sendo esta variabilidade ligada a determinantes genéticos, explorados pela Medicina de Precisão.

Esse texto destaca os dois componentes que parecem ter uma grande influência no surgimento e fortalecimento da Medicina de Precisão: a transição do padrão de distribuição etária da população e a melhora e redução dos custos do diagnóstico molecular.

 

Transição demográfica e epidemiológica

Estudos demográficos mostram uma transição no perfil populacional, que apresenta, numa sequência temporal, o declínio da mortalidade, redução da fertilidade, aumento transitório e posterior redução do crescimento populacional e envelhecimento da população, conforme se observa na Tabela 1.

O declínio da mortalidade se iniciou no Noroeste da Europa, na transição entre os séculos XVIII e XIX: a expectativa de vida na Suécia até 1840 era de 39 anos para homens e 44 anos para mulheres, passando a 80 anos para homens e 84 para mulheres em 2017. Apenas mais tardiamente, no início do século XX – e mais acentuadamente após a 2ª guerra mundial – verifica-se aumento comparável nos países em desenvolvimento (expectativa de 24 anos de vida em 1920 e 62 anos em 2000, na Índia)[1].

 

Tabela 1. Tendências globais da população mundial

Ano

Expectativa de vida (anos ao nascer)

Taxa de fertilidade (nascimentos por mulher)

Tamanho da população (bilhões)

Taxa de crescimento populacional (%/ano)

População < 15 anos (% do total da população)

População > 65 anos (% do total da população)

1700

27

6,0

0,68

0,50

36

4

1800

27

6,0

0,98

0,51

36

4

1900

30

5,2

1,65

0,56

35

4

1950

47*

5,0

2,52

1,80

34

5

2000

65

2,7

6,07

1,22

30

7

Fonte: Adaptado de Lee (2003)

*Note a importante mudança entre 1900 e 1950, que pode ser evidenciada também no Brasil nos dados do IBGE.

A redução da mortalidade deve-se, inicialmente, à redução de doenças infectocontagiosas e redução da fome. Estes fatos se correlacionam fortemente – mas não exclusivamente – com avanços tecnológicos.

O controle de epidemias, como as de varíola, que se deu pela capacidade de reconhecimento e isolamento de seu agente e posterior criação de uma vacina, ainda em 1796. A desnutrição, que era uma causa importante de mortalidade infantil, foi reduzida com as técnicas de estocagem de alimentos, que prolongava a vida útil dos mesmos, e de seu transporte, possibilitando sua melhor distribuição e especialização regional de produção. A inserção dos antibióticos na terapia antibacteriana foi um fator significativo na redução da mortalidade a partir da década de 1940.

O aumento da expectativa de vida da população e a modificação da pirâmide etária foram acompanhadas de modificações no padrão epidemiológico. Doenças transmitidas pelo ar ou pela água foram, durante séculos, a grande preocupação do mundo. Apareciam em surtos, dizimavam populações, eram de difícil controle e necessitavam de uma atuação centralizada, pois envolviam grandes massas populacionais.

A lista das epidemias do século XXI da Organização Mundial da Saúde torna claro, no entanto, que as doenças transmissíveis são atualmente muito prevalentes apenas nos países em desenvolvimento. Assim, compreende-se por que o foco das políticas de saúde dos países desenvolvidos se modificou ainda no século XX, para priorizar outros tipos de doenças.

Países com alto e médio nível de desenvolvimento socioeconômico apresentam doenças crônico-degenerativas (não transmissíveis) como principal causa de óbito na população, enquanto países de nível baixo de desenvolvimento apresentam um padrão misto de causa de óbito (Figura 1) e invalidez.

Dessa forma, neoplasias de diversos tipos já eram uma preocupação para os países desenvolvidos no final do século XX (segundo dados da Global Burden of Diseases, o padrão de distribuição em 1990 já era semelhante ao apresentado na Figura 1 para 2017) e passa a ser também para os países em desenvolvimento na virada para o século XXI.

Doenças crônico-degenerativas representam um alto custo para a Saúde, tanto pública quanto privada (sobre a importância econômica da morbimortalidade causada por essas doenças, veja mais no texto Medicina de Precisão: o que é e que benefícios traz?). No Brasil, um estudo de 2011 mostrou que o diagnóstico, tratamento e seguimento de pacientes com câncer ligado a tabagismo – pulmão, laringe e esôfago – podia ultrapassar R$ 30 mil (em valores constantes de 2006) por paciente por até um ano de tratamento, sendo a radioterapia e a hospitalização responsáveis pela maior parte dos custos. Nos Estados Unidos, segundo dados obtidos de autorizações concedidas pelas seguradoras para tratamento do câncer de mama, o custo por paciente depende do estágio de evolução da doença, e pode passar de U$ 180 mil (Blumen et al., 2016).

Uma particularidade do tratamento de doenças crônico-degenerativas é que o alvo terapêutico das drogas são cascatas intracelulares de células do próprio indivíduo (enquanto o alvo terapêutico de drogas para doenças infectocontagiosas é, de forma geral, o invasor, seja ele um vírus, uma bactéria ou um protozoário), fazendo com que suas características genéticas possam ter um papel direto na resposta à droga.

Estudos econômicos apontam que os altos valores das terapias exercem uma pressão para que o diagnóstico seja preciso e que se identifique previamente os indivíduos que, de fato, respondam à terapia.

Admitindo que o sistema colapsaria se tivesse que financiar terapias de ponta – e, por conseguinte, de alto custo – a todos os indivíduos acometidos por determinadas doenças, a forma de triar quem recebe determinada terapia pode usar critérios moleculares que indicam a capacidade de resposta. Isso reduziria custos e eventuais desperdícios, o que explicaria a valorização e o crescimento da Medicina de Precisão nos anos 2010.

O uso de critérios moleculares, no entanto, depende do desenvolvimento científico sobre as bases moleculares das doenças, da capacidade técnica de como acessá-las e da existência de tecnologias que possibilitem esse acesso. A próxima sessão aborda o desenvolvimento das técnicas e de seus custos que tornaram o diagnóstico molecular uma realidade possível.

Figura 1. Ranqueamento das 20 principais causas de óbito em 2017 para ambos os sexos, faixa etária de 50-69 anos, para países com alto, médio e baixo índices de desenvolvimento socioeconômico (segundo classificação da própria Global Burden of Diseases), respectivamente. Doenças não transmissíveis em azul; doenças transmissíveis, maternas, neonatais e nutricionais em laranja; causas externas em verde.

Fonte: https://vizhub.healthdata.org/gbd-compare/ (adaptado para português)

 

Evolução dos testes genéticos

Os conhecimentos sobre as bases moleculares da genética eram rudimentares até a descrição da dupla hélice de DNA por Watson e Crick, em 1953[2]. Até os anos 1970, as análises citogenéticas aplicadas ao diagnóstico de patologias humanas hereditárias permitiam a contagem dos cromossomos e identificação de alterações estruturais dos cromossomos (aberrações), cujo limite de visualização é o alcance do microscópio (alterações estruturais menores, como duplicações, deleções ou modificação da localização de pequenas sequencias de bases estruturais do DNA não podem ser visualizadas ao microscópio) e baseado na análise por um olho humano qualificado.

Nos anos 1980, o aparecimento da hibridização in situ fluorescente – conhecida pela sigla inglesa FISH – trouxe o uso de pequenas sondas (uma sequência de DNA de cadeia simples, ligado a um marcador que possa ser visualizado para identificar sua localização) de DNA que podem ser usadas simultaneamente para detecção de pequenas sequencias do genoma, emitindo cores.

O mapeamento do genoma humano – e de outras espécies – e a clonagem de sequências pelo Projeto Genoma Humano aumentou o conhecimento sobre as sequências genéticas contidas nos cromossomos, possibilitando o rastreamento de várias anomalias humanas por testes genéticos usando FISH. O método de FISH, apesar de muito útil, apresenta exigências técnicas que limitam a velocidade de identificação de sequências do DNA que puderam ser contornados por outras técnicas.

A técnica de hibridização em microarray torna o processo ainda mais rápido e menos custoso, na medida em que utiliza diversas sondas previamente caracterizadas, comparando a amostra com um DNA conhecido.

O FISH e a hibridização por microarray, no entanto, não são capazes de detectar alterações no nível de um único nucleotídeo, a unidade básica do DNA. Para isso, é necessária a determinação da sequência do DNA, técnica que surgiu nos anos 1970, mas que foi enormemente acelerada após o estabelecimento da técnica de PCR (polymerase chain reaction), de forma automatizada nos anos 1980, permitindo a geração de milhões de cópias de um pequeno fragmento de DNA. O sequenciamento passou a ser automatizado no final dos anos 1990 e a primeira geração de sequenciadores cedeu espaço aos sequenciadores de nova geração nos anos 2000, gerando enormes ganhos de escala.

Enquanto no primeiro (método de Sanger) uma única região do genoma – tipicamente compreendendo 500 a 1000 pares de bases – é analisada de cada vez, os sequenciadores de nova geração sequenciam até bilhões de fragmentos individuais, permitindo, por vez, que vários genes ou mesmo um genoma inteiro possa ser sequenciado em uma análise. Além disso, esse método mais recente é capaz de detectar variações da sequência de nucleotídeos em amostras complexas, sendo essenciais no diagnóstico de câncer, em que alterações da sequência do DNA estão presentes apenas nos tumores.

Esses diversos métodos são usados no diagnóstico clínico, sendo o sequenciamento de nova geração cada vez mais usado, potencialmente substituindo os demais. De acordo com dados do National Human Genome Research Institute, citados em artigo do grupo Nature, até o ano de 2007 o custo de sequenciamento de um genoma inteiro era estimado em US$ 10 milhões, caindo para US$ 1.500 em 2015 e estimado para custar menos de mil dólares em um futuro próximo. No entanto, esse mesmo artigo questiona o quanto esse custo está relacionado ao seu uso clínico, o que é uma discussão à parte.

A redução do custo das técnicas permitiu seu uso mais amplo, tornando a Medicina de Precisão uma realidade. À eficiência e à redução de custos se associam também a adoção de registros eletrônicos de saúde, integrando dados clínicos e complementares, tornando a medicina cada vez mais digital.

 

Conclusão

Pelo exposto, sugere-se que a Medicina de Precisão foi incentivada pela transição demográfica e possibilitada pela tecnologia, sendo essas as duas molas propulsoras de seu crescimento recente, sobretudo nos países desenvolvidos.

Assim como a Tecnologia da Informação possibilitou uma nova forma de organização da produção na transição 1980-90, fracionando a produção das partes e sua montagem em diferentes localidades segundo seu custo, a Tecnologia da Informação aplicada à área biomédica pode ser vista agora como um divisor de águas na medicina. A tecnologia, aliada à mudança do padrão epidemiológico da população, parece estar levando à alteração de uma medicina destinada às massas para um padrão mais seletivo, focado em pequenas populações ou mesmo no indivíduo.

O investimento na área e a formulação de políticas que enfoquem essa mudança na demanda merecem ser melhor discutidos, sobretudo nos países onde doenças infecciosas e crônico-degenerativas ainda coexistem de forma importante, e onde há grandes massas populacionais dependentes de atendimento público. Em paralelo, o foco no indivíduo com o estabelecimento de tratamentos customizados segundo o potencial de resposta de cada um traz à tona a discussão da universalidade dos sistemas de saúde, que também merece um debate à parte.

* A autora agradece os comentários, críticas e sugestões do Dr. Marcelo Reis do Instituto D’Or de Pesquisa e Ensino, essenciais na elaboração desse artigo.

 

[1] Apesar da tendência de queda da mortalidade em todos os países em desenvolvimento, a epidemia de HIV/AIDS em 1990-2000 impactou fortemente a África subsaariana, alterando as curvas de tendência.

[2] Essa afirmação não desmerece todos os achados dos mais de 100 anos de estudo anteriores a esse e que já atribuíam a herança genética ao conteúdo dos cromossomas, como pode ser evidenciado no trabalho de Theodor Boveri no início do século XX. Apenas busca indicar que desvendar suas bases moleculares foi essencial à evolução dos testes diagnósticos.