You are on page 1of 48

INTERPRETAÇÃO DE EXAMES BIOQUÍMICOS E

INTERAÇÃO DROGA X NUTRIENTE

1
Sumário

FACUMINAS ............................................. Erro! Indicador não definido.

INTRODUÇÃO ......................................................................................... 2

ABSORÇÃO E METABOLISMO DOS FÁRMACOS/NUTRIENTES ........ 3

INTERAÇÃO FÁRMACO-NUTRIENTE ................................................... 6

PROCESSO ABSORTIVO....................................................................... 8

MODIFICAÇÃO DO PH DO CONTEÚDO GASTRINTESTINAL ............. 9

VELOCIDADE DO ESVAZIAMENTO GÁSTRICO ................................... 9

AUMENTO DA ATIVIDADE PERISTÁLTICA DO INTESTINO .............. 10

COMPETIÇÃO PELOS SÍTIOS DE ABSORÇÃO .................................. 11

FLUXO SANGUÍNEO ESPLÂNCNICO (FSE) ....................................... 11

LIGAÇÃO DIRETA DO FÁRMACO COM COMPONENTES DOS


ALIMENTOS (COMPLEXAÇÃO)...................................................................... 12

INTERFERÊNCIA DO ESTADO NUTRICIONAL NA


BIODISPONIBILIDADE DOS FÁRMACOS ...................................................... 12

INTERFERÊNCIA DO FÁRMACO NO ESTADO NUTRICIONAL ......... 13

O PACIENTE IDOSO............................................................................. 14

FATORES QUE INFLUENCIAM OS EXAMES LABORATORIAIS ........ 16

FATORES FISIOLÓGICOS ................................................................... 18

FATORES RELACIONADOS COM A MANIPULAÇÃO DAS AMOSTRAS


......................................................................................................................... 22

ERROS ANALÍTICOS ............................................................................ 26

VALORES DOS EXAMES COMPLEMENTARES ................................. 27

MAMOGRAFIA ...................................................................................... 35

RESSONÂNCIA MAGNÉTICA .............................................................. 38

ULTRASSONOGRAFIA ......................................................................... 40

MOTORES PARA INOVAÇÃO .............................................................. 41

PRINCIPAIS INOVAÇÕES .................................................................... 43

REFERÊNCIAS BIBLIOGRÁFICAS ...................................................... 46

1
INTRODUÇÃO

O alimento, independentemente da cultura do indivíduo e da época vivida,


é um fator essencial e indispensável à manutenção e à ordem da saúde.

Sua importância está associada à sua capacidade de fornecer ao corpo


humano nutrientes necessários ao seu sustento.

Para o equilíbrio harmônico desta tarefa é fundamental a sua ingestão em


quantidade e qualidade adequadas, de modo que funções específicas como a
plástica, a reguladora e a energética sejam satisfeitas, mantendo assim a
integridade estrutural e funcional do organismo.

No entanto, esta integridade pode ser alterada, em casos de falta de um


ou mais nutrientes, com consequente deficiência no estado nutricional e
necessidade de suplementação (regime dietoterápico).

Por outro lado, os nutrientes são também capazes de interagir com


fármacos, sendo um problema de grande relevância na prática clínica, devido às
alterações na relação risco/benefício do uso do medicamento.

Estas interações são facilitadas, pois os medicamentos, na sua maioria,


são administrados por via oral.

Os nutrientes podem modificar os efeitos dos fármacos por interferirem


em processos farmacocinéticos, como absorção, distribuição, biotransformação
e excreção (Oliveira, 1991; Yamreudeewong et al., 1995), acarretando prejuízo
terapêutico.

A absorção dos nutrientes e de alguns fármacos ocorre por mecanismos


semelhantes e frequentemente competitivos e, portanto, apresentam como
principal sítio de interação o trato gastrintestinal.

Desde a década de 80, a Joint Commission on Accreditation of


Hospitals vem incentivando profissionais, como farmacêuticos e nutricionistas, a

2
monitorar as interações fármaco-nutriente que ocorrem com pacientes
internados, bem como orientá-los a este respeito quando eles deixam o hospital
(Murray & Healy, 1991; Lasswell & Loreck, 1992).

Portanto, na equipe de saúde, estes profissionais desempenham um


papel importante na identificação destas interações, bem como na educação de
pacientes em programas de aconselhamento (Thomas, 1995). Entretanto, nos
Estados Unidos, em uma ampla pesquisa, constatou-se não haver, na maioria
dos hospitais, um programa de consulta formal (Wix et al., 1992).

Um maior conhecimento em relação a este processo conduz a um controle


mais efetivo da administração do medicamento e da ingestão de alimentos,
favorecendo, assim, a adoção de terapias mais eficazes. Portanto, o presente
artigo tem como objetivo apresentar os diversos aspectos envolvidos na
interação fármaco-nutriente.

ABSORÇÃO E METABOLISMO DOS FÁRMACOS/NUTRIENTES

A maioria dos fármacos administrados oralmente é absorvida por difusão


passiva, enquanto os nutrientes são absorvidos, preferencialmente, por
mecanismo de transporte ativo. Quando se administra um fármaco por via oral,
sua absorção pelo tubo gastrintestinal e, consequentemente, sua concentração
sanguínea, são dependentes de vários fatores (Tabela 1) (Roe, 1984a).

3
O trajeto dos fármacos no organismo pode ser representado através de
três fases: biofarmacêutica, farmacocinética e farmacodinâmica (Figura 1).

Fase Biofarmacêutica

Compreende todos os processos que ocorrem com o medicamento a


partir da sua administração, incluindo as etapas de liberação e dissolução do
princípio ativo. Esta fase deixa o fármaco disponível para a absorção.

Entretanto, sua natureza química, estado físico, tamanho e superfície da


partícula, quantidade e tipo dos excipientes utilizados, processo farmacêutico
empregado e formulação são fatores os quais podem influir na biodisponibilidade
do princípio ativo, fazendo variar o tempo de absorção e a quantidade absorvida.

ase Farmacocinética

Esta fase inclui os processos nos quais o organismo interfere sobre o


fármaco.

A farmacocinética é o estudo dos processos de absorção, distribuição,


biotransformação e excreção.

4
O metabolismo ocorre em dois tipos de reações básicas, referidas como
reações fase I e fase II (Figura 1).

A primeira inclui reações bioquímicas, como oxidação, redução e


hidrólise, as quais conduzem a modificações nas moléculas dos fármacos.

A segunda corresponde àquelas que conjugam os grupos funcionais dos


fármacos a moléculas endógenas. Estas reações são catalisadas por enzimas
ou sistemas enzimáticos, sendo o fígado o principal local de metabolismo de
compostos ativos, em função de seu amplo sistema microssomal.

Outros órgãos e tecidos, como pulmões, rins, mucosa intestinal, pele e


plasma sanguíneo, também podem participar deste processo (Silva, 1994).

O sistema de catálise do metabolismo oxidativo, dependente do citocromo


P450, atua sobre uma ampla gama de substâncias endógenas, bem como sobre
substâncias químicas estranhas, tais como fármacos, poluentes ambientais e
carcinógenos. Modificações na atividade desse sistema pode alterar a resposta
metabólica frente a estas substâncias (Anderson et al., 1982; Anderson, 1988).

Há similaridades na absorção, mas as distribuições metabólicas do


fármaco e do nutriente são diferentes (Figura 2).

Os nutrientes entram no processo metabólico normal da célula também


na forma de substrato para reações bioenergéticas, produzindo energia para
contrabalançar a entropia ou na forma de cofator para as reações anabólicas e
catabólicas.

Os fármacos, por sua vez, geralmente participam de reações que resultam


na modificação química, na atividade farmacológica e na sua excreção (Hayes
& Borzelleca, 1985).

Fase Farmacodinâmica

Fase responsável pelo estudo das interações moleculares que regulam o


reconhecimento molecular de um fármaco pelo receptor (Barreiro & Fraga,
2001). O resultado desta interação produz o efeito terapêutico, cuja resposta é

5
variável e depende de diversos fatores individuais, além dos farmacocinéticos
(Silva, 1994).

O conceito de biodisponibilidade, no sentido restrito, é o termo empregado


para descrever a fração da dose administrada de um produto farmacêutico capaz
de alcançar a circulação sistêmica e exercer ação terapêutica. Este parâmetro
expressa a extensão e a velocidade das fases biofarmacêutica e farmacocinética
da substância ativa (Reynolds, 1993).

INTERAÇÃO FÁRMACO-NUTRIENTE

As interações entre nutrientes e fármacos podem alterar a disponibilidade,


a ação ou a toxicidade de uma destas substâncias ou de ambas. Elas podem ser
físico-químicas, fisiológicas e patofisiológicas (Roe, 1985; Roe, 1993).
Interações físico-químicas são caracterizadas por complexações entre
componentes alimentares e os fármacos.

As fisiológicas incluem as modificações induzidas por medicamentos no


apetite, digestão, esvaziamento gástrico, biotransformação e clearance renal. As
patofisiológicas ocorrem quando os fármacos prejudicam a absorção e/ou
inibição do processo metabólico de nutrientes (Toothaker & Welling, 1980;
Thomas, 1995).

O consumo de alimentos com medicamentos pode ter efeito marcante


sobre a velocidade e extensão de sua absorção.

A administração de medicamentos com as refeições, segundo aqueles


que a recomendam, se faz por três razões fundamentais: possibilidade de
aumento da sua absorção; redução do efeito irritante de alguns fármacos sobre
a mucosa gastrintestinal; e uso como auxiliar no cumprimento da terapia,
associando sua ingestão com uma atividade relativamente fixa, como as
principais refeições (Gai, 1992; Kirk, 1995).

Entretanto, estes motivos são insuficientes para justificar este


procedimento de forma generalizada, pois a ingestão de alimentos poderá afetar
a biodisponibilidade do fármaco através de interações físico-químicas ou
químicas (Gai, 1992; Roe, 1994; Thomas, 1995).

6
Sendo afetada a biodisponibilidade, por modificação dos processos
farmacocinéticos, ocorrerá alteração da farmacodinâmica e da terapêutica
(Thomas, 1995). Assim, é de fundamental importância conhecer as substâncias
ativas cuja velocidade de absorção e/ou quantidade são alteradas, bem como
aquelas que não são afetadas pela presença de nutrientes (Toothaker & Welling,
1980).

Estudos aprofundados com humanos sobre estes mecanismos têm sido


realizados, com a finalidade de demonstrar mais precisamente os efeitos dos
nutrientes sobre a biodisponibilidade dos fármacos (Radulovic et al., 1995;
Lavelle et al., 1996).

Analgésicos e anti-inflamatórios, por exemplo, são com frequência


administrados com alimentos. O objetivo é diminuir as irritações da mucosa
gástrica provocadas, principalmente, pela administração destes medicamentos
por tempo prolongado.

De acordo com a maioria das pesquisas realizadas, os nutrientes


diminuem a velocidade de absorção dos fármacos, provavelmente por
retardarem o esvaziamento gástrico (Souich et al., 1992).

O retardo na absorção de certos fármacos, quando ingeridos com


alimentos, nem sempre indica redução da quantidade absorvida. Mas,
provavelmente, poderá ser necessário um período maior para se alcançar sua
concentração sanguínea máxima, interferindo na latência do efeito. Entretanto,
substâncias que se complexam com nutrientes estão frequentemente
indisponíveis para absorção (Gai, 1992).

O sistema renal constitui uma das principais vias de excreção de


fármacos, sendo importante no processo de interação.

O pH urinário sofre variações conforme a natureza ácida ou alcalina dos


alimentos ou de seus metabólitos. Assim, dietas ricas em vegetais, leite e
derivados elevam o pH urinário, acarretando um aumento na reabsorção de
fármacos básicos, como, por exemplo, as anfetaminas. No entanto, com
fármacos de caráter ácido, como barbitúricos, verifica-se elevação da excreção.
Por outro lado, ovos, carnes e pães, acidificam a urina, tendo como

7
consequência o aumento da excreção renal de anfetaminas e outros fármacos
básicos (Trovato et al., 1991; Basile, 1994).

A natureza das diferentes interações pode apresentar os seguintes


caminhos (Truswell, 1975):

• alguns nutrientes podem influenciar no processo de absorção de fármacos;

• alguns nutrientes podem alterar o processo de biotransformação de algumas


substâncias;

• alterações na excreção de fármacos podem ocorrer por influência de nutrientes;

• fármacos podem afetar o estado nutricional;

• o estado nutricional pode interferir sobre o metabolismo de certos fármacos,


diminuindo ou anulando seu potencial terapêutico ou aumentando seu efeito
tóxico.

PROCESSO ABSORTIVO

A influência dos nutrientes sobre a absorção dos fármacos depende do


tipo de alimento, da formulação farmacêutica, do intervalo de tempo entre a
refeição e sua administração e do volume de líquido com o qual ele é ingerido.
(Welling, 1977; Welling,1984; Williams et al., 1993; Fleisher et al., 1999).

O trato gastrintestinal representa o principal sítio de interação fármaco-


nutriente, uma vez que o processo de absorção de ambos ocorre por
mecanismos semelhantes e podem ser competitivos.

A maioria das interações clinicamente significativas ocorrem no processo


de absorção (Toothaker & Welling, 1980), segundo os estudos até hoje
realizados.

A ingestão de alimentos é capaz de desencadear no trato digestivo a


liberação de secreção que, por ação qualitativa e quantitativa dos sucos
digestivos, age hidrolisando e degradando ligações químicas específicas,
através da ação do ácido clorídrico e de enzimas específicas (Guyton, 1992).

8
Portanto, substâncias sensíveis a pH baixo podem ser alteradas ou até
inativadas pelo ácido gástrico quando ingeridas com alimentos (Toothaker &
Welling, 1980), como, por exemplo no caso da inativação da penicilina e da
eritromicina (Welling, 1978; Welling, 1984).

Paralelamente, o nutriente pode influenciar na biodisponibilidade do


fármaco através da modificação do pH do conteúdo gastrintestinal,
esvaziamento gástrico, aumento do trânsito intestinal, competição por sítios de
absorção, fluxo sanguíneo esplâncnico e ligação direta do fármaco com
componentes dos alimentos (Welling, 1984; Souich et al., 1992).

MODIFICAÇÃO DO PH DO CONTEÚDO GASTRINTESTINAL

Após a ingestão de alimentos ou líquidos o pH de 1,5 do estômago se


eleva para aproximadamente 3,0. Esta modificação pode afetar a desintegração
das cápsulas, drágeas ou comprimidos e consequentemente a absorção do
princípio ativo.

O aumento do pH gástrico em função dos alimentos ou líquidos pode


reduzir a dissolução de comprimidos de eritromicina ou de tetraciclina (Welling &
Tse, 1982; Trovato, 1991). Por outro lado, medicamentos como a fenitoína ou o
dicumarol desintegram-se mais facilmente com a alcalinização do pH gástrico
(Welling, 1984).

O pH também interfere na estabilidade, assim como na ionização dos


fármacos, promovendo uma alteração na velocidade e extensão de absorção
(Harrison et al., 1992).

VELOCIDADE DO ESVAZIAMENTO GÁSTRICO

A presença de alimentos no estômago contribui para o retardo do


esvaziamento gástrico, devido aos sinais de retroalimentação duodenal,
incluindo principalmente o reflexo enterogástrico e a retroalimentação hormonal.
Portanto, a velocidade do esvaziamento do estômago é limitada pela quantidade
de quimo que o intestino delgado pode processar (Guyton, 1992).

9
Refeições sólidas, ácidas, gordurosas, quentes, hipertônicas e volumes
líquidos acima de 300 mL tendem a induzir um acentuado retardo do
esvaziamento gástrico, enquanto refeições hiperprotéicas têm efeito menor
neste processo (Welling, 1984; Guyton, 1992).

Assim, a composição da dieta influencia o tempo de permanência dos


fármacos no trato digestivo e, consequentemente, aumenta ou diminui a
absorção dos mesmos.

O esvaziamento gástrico lento pode aumentar a absorção dos fármacos


que se utilizam de mecanismos saturantes, isto é, há um prolongamento do
tempo de contato do princípio ativo com a superfície de absorção, (Welling, 1984;
Gai, 1992), facilitando-a difusão através da membrana celular.

AUMENTO DA ATIVIDADE PERISTÁLTICA DO INTESTINO

A atividade peristáltica do intestino delgado é provocada, em parte, pela


entrada de quimo no duodeno e pelo fluxo gastroentérico. Este reflexo eleva o
grau geral de excitabilidade do intestino delgado e também aumenta a motilidade
e secreção (Guyton, 1992).

O aumento moderado da motilidade tanto pode favorecer a dissolução do


medicamento, facilitando o contato das substâncias ativas com a superfície de
absorção e otimizando, assim, a velocidade do processo (Toothaker & Welling,
1980), quanto pode diminuir a sua biodisponibilidade, em função da elevação da
velocidade do trânsito intestinal.

Secreções de ácidos, enzimas e sais biliares aumentam na presença de


alimentos.

Os ácidos e sais biliares, pelas suas propriedades tensoativas, auxiliam a


solubilização e favorecem a absorção de fármacos lipossolúveis (Toothaker &
Welling, 1980; Basile, 1994).

Os sais biliares também podem formar complexos não absorvíveis com


substâncias como a colestiramina (Toothaker & Welling, 1980; Roe, 1985). De
forma geral, as secreções podem ampliar a disponibilidade do fármaco,

10
dependendo da sua natureza, ácida ou básica, da lipofilicidade ou da formulação
do medicamento (Welling, 1984). É o caso, por exemplo, da griseofulvina, que
tem sua absorção aumentada quando ingerida com dietas hiperlipídicas (Kirk,
1995).

COMPETIÇÃO PELOS SÍTIOS DE ABSORÇÃO

A presença de nutrientes pode constituir uma competição pelos sítios de


absorção, cuja consequência dependerá de qual componente apresentar maior
afinidade com este sítio.

A levodopa (L-dopa), usada no tratamento da doença de Parkinson, tem


ação terapêutica inibida por dieta hiperproteica; entretanto, uma dieta
hipoproteica potencializa e estabiliza este efeito (Duvoisin & Sage, 1996).

Esta alteração deve-se ao fato de os aminoácidos competirem com a


levodopa tanto na absorção intestinal, quanto na penetração no cérebro (Welling,
1977).

FLUXO SANGUÍNEO ESPLÂNCNICO (FSE)

A circulação esplâncnica é constituída pelo suprimento sanguíneo do trato


gastrintestinal, baço e pâncreas.

A ingestão de alimentos aumenta o fluxo sanguíneo esplâncnico, e o grau


de modificação depende do tipo e da quantidade da refeição ingerida. Dietas
hiperproteicas e hiperlipídicas elevam o FSE, o qual é maior para as grandes
refeições do que para as pequenas.

O aumento do FSE pós-prandial tem sido implicado na diminuição do


efeito de primeira passagem, levando, portanto, à ampliação da disponibilidade
sistêmica de um número de fármacos, incluindo alguns bloqueadores beta-
adrenérgicos (Welling, 1989).

11
LIGAÇÃO DIRETA DO FÁRMACO COM COMPONENTES DOS
ALIMENTOS (COMPLEXAÇÃO)

A interação fármaco-nutriente pode ocorrer por mecanismo de


complexação, resultando na diminuição da sua disponibilidade. Os íons di e
trivalentes (Ca2+, Mg2+, Fe2+ e Fe3+), presentes no leite e em outros alimentos,
são capazes de formar quelatos não absorvíveis com as tetraciclinas,
ocasionando a excreção fecal dos minerais, bem como do fármaco (Welling,
1977; Welling, 1984).

INTERFERÊNCIA DO ESTADO NUTRICIONAL NA


BIODISPONIBILIDADE DOS FÁRMACOS

As deficiências nutricionais resultam de quantidades de nutrientes


essenciais ingeridas inadequadamente, o que acarreta precariedade do estado
nutricional. Este, por sua vez, pode afetar a ação do fármaco, por alterar a
absorção, a distribuição, a biotransformação e a excreção, influenciando,
portanto, a resposta terapêutica (Krishnaswamy et al., 1981; Hoyumpa &
Schenker, 1982).

Provavelmente, o fator mais importante do regime alimentar no


metabolismo de compostos ativos é a quantidade de proteína na dieta. Um
regime alimentar com elevado teor de proteína e baixo teor de carboidrato
aumenta a velocidade do metabolismo do fármaco, enquanto dieta com baixo
teor de proteína e alto teor de carboidrato favorece o efeito oposto (Roe, 1978;
Roe, 1984b).

A proteína e outros nutrientes podem influenciar a atividade enzimática do


citocromo P450 microssomal hepático no homem. Desta forma, a meia-vida
plasmática de vários fármacos pode ser alterada em função dos nutrientes
oferecidos pela dieta, aumentando ou reduzindo a atuação deste importante
sistema enzimático (Anderson et al., 1982; Roe, 1984b; Basile, 1994).

Micronutrientes (zinco, magnésio, ácido ascórbico e riboflavina)


apresentam papel de grande relevância na metabolização hepática de fármacos
(Insogna et al., 1980; Hoyumpa & Schenker, 1982), como é o caso do zinco,

12
essencial para enzimas específicas associadas às fases I e II no processo de
biotransformação.

INTERFERÊNCIA DO FÁRMACO NO ESTADO NUTRICIONAL

Os fármacos podem modificar o metabolismo de nutrientes. Estas


interações normalmente resultam em alteração do estado nutricional (Trovato et
al., 1991), sendo imprescindível o controle do uso de substâncias produtoras de
efeitos prejudiciais à nutrição, como, por exemplo, o metotrexato e a ciclosporina,
que danificam a mucosa intestinal, diminuindo a absorção de cálcio (Roe,
1984a).

No tratamento de doenças crônicas, o uso prolongado de medicamentos


pode provocar a perda de nutrientes. Nestes casos, a suplementação dietética é
necessária para restabelecer as condições nutricionais normais do paciente.

A alteração causada pelas substâncias ativas na absorção de nutrientes


pode ser primária ou secundária. A má absorção primária induzida por
medicamentos é uma consequência dos efeitos diretos dos agentes
farmacológicos sobre a mucosa ou sobre o processo intraluminal.

A má absorção secundária é causada pelo pobre estado fisiológico ou,


ainda, pela interferência do fármaco sobre o metabolismo de um nutriente que,
por sua deficiência, poderá ocasionar a má absorção de outros (Roe, 1984a;
Trovato et al., 1991).

Substâncias como antiácidos, laxativos e antibióticos podem causar a


perda de nutrientes. O uso prolongado de laxativos estimulantes como bisacodil
induz o aumento da velocidade do trânsito intestinal e consequentemente reduz
a absorção de glicose, proteína, sódio, potássio e algumas vitaminas, enquanto
o uso excessivo daqueles que contêm fenolftaleína diminui a absorção de
vitaminas C e D (Roe, 1978; Roe, 1984b).

Grandes doses de óleo mineral interferem na absorção de vitaminas


lipossolúveis (A, D, E, K), b-caroteno, cálcio e fosfatos, devido à barreira física
e/ou diminuição do tempo de trânsito intestinal (Clark et al., 1987; Trovato et al.,
1991).

13
O metabolismo da vitamina D, cálcio e fosfatos está inter-relacionado, ou
seja, a deficiência de uma destas substâncias poderá conduzir a anormalidades
metabólicas, caracterizando má absorção secundária (Yamreudeewong et al.,
1995).

O uso excessivo de óleo mineral pode provocar raquitismo em crianças e


osteomalacia em adultos, por deficiência de cálcio (Roe, 1978; Insogna et al.,
1980).

Aumento na excreção de minerais ocorre com o uso prolongado ou com


a ingestão de altas doses de diuréticos. A furosemida, diurético de alça, acarreta
perda de potássio, magnésio, zinco e cálcio (Roe, 1984b).

O PACIENTE IDOSO

A ingestão de nutrientes como proteínas, lipídeos, minerais e vitaminas


em quantidade e qualidade adequadas é importante para a manutenção do
estado nutricional. No idoso, o requerimento nutricional é diferenciado, em
virtude, principalmente, da diminuição do metabolismo basal, aliada na maioria
das vezes ao sedentarismo.

Modificações fisiológicas, como as descritas no Quadro 1, não sendo


adequadamente avaliadas, podem afetar o estado nutricional do idoso (Varma,
1994). Portanto, para a preservação da integridade estrutural e funcional de seu
organismo, é preciso monitorar suas necessidades e condições nutricionais, o
que pode ser feito através de alimentação, de medidas antropométricas, de
exames bioquímicos, da avaliação clínica e da análise de fatores
socioeconômicos e ambientais, como, por exemplo, a instabilidade emocional, a
proximidade da família e dos amigos e o abuso de álcool ou de medicamentos
(Munro et al., 1987).

14
Os problemas nutricionais e as reações medicamentosas, no idoso,
advêm das alterações próprias do processo de senescência e de fatores diversos
(Roe, 1985).

A probabilidade de prescrição medicamentosa para o idoso é maior,


quando comparada com outras faixas etárias, em virtude do tratamento de
doenças crônicas e/ou agudas intercorrentes (Varma, 1994; Schumann, 1999).
Ele pode vir a ingerir de 3 a 10 medicamentos/dia, elevando o risco de indução
da deficiência nutricional (Varma, 1994).

Comumente o idoso tem como prática a automedicação, para alívio dos


sintomas relacionados à doença ou a outro problema qualquer de saúde,
vinculados ou não com a idade.

Os medicamentos de venda livre ingeridos por ele com frequência são os


laxativos, os anti-histamínicos, as vitaminas, os minerais, os analgésicos e os
antiácidos, os quais, quando consumidos de forma abusiva, causam efeitos
adversos sobre o apetite e o estado nutricional (Roe, 1994; Schumann, 1999).

Na Espanha, de acordo com dados do Encontro Nacional de Saúde, 23%


da população adulta e 21% da população infantil fazem uso da automedicação
(Gil Esparza, 1997).

Segundo Teresi & Morgan (1994) no ano 2010 metade do total dos
medicamentos que a população dos Estados Unidos consumirá não
será prescrita diretamente pelo médico.

15
Os medicamentos utilizados pelo idoso podem ser mais ou menos
absorvidos, dependendo das condições de consumo, ou seja, se associados ou
não às refeições, bem como do seu estado nutricional (Roe, 1984a; Chen et al.,
1985). Por outro lado, as deficiências nutricionais podem ocorrer por indução
medicamentosa, sendo as mais frequentes as depleções de vitaminas e de
minerais (Flodim, 1990; Murray & Healy, 1991).

Medicamentos podem causar um estado nutricional insatisfatório em


pacientes idosos por diferentes mecanismos. Em contrapartida, a condição
nutricional inadequada pode alterar a ação do fármaco.

A digoxina, importante agente terapêutico no tratamento da insuficiência


cardíaca congestiva, possui propriedade anorexígena, além de causar náuseas
e vômitos.

O uso concomitante com diurético facilita a perda não somente de sódio,


mas também de potássio, magnésio e cálcio. Em mulheres na menopausa a
perda de cálcio aumenta o risco de osteoporose (Roe, 1993).

A idade exerce uma grande influência no processo farmacocinético do


fármaco e, portanto, o idoso representa uma população de grande risco quanto
à interação fármaco-nutriente.

FATORES QUE INFLUENCIAM OS EXAMES LABORATORIAIS

Os exames complementares são uma parte essencial da prática médica


atual. Embora os exames laboratoriais representem apenas 2,3% dos custos
anuais com assistência à saúde, são muito importantes na tomada de decisão
clínica para médicos, enfermeiros e outros profissionais de saúde.

Existem mais de 4.000 exames laboratoriais disponíveis para uso clínico


e cerca de 500 são realizados com regularidade.

O sistema de saúde depende cada vez mais de laboratórios de análises


clínicas fidedignos, contudo, essas avaliações estão sujeitas a erros. As análises
não são apenas a utilização de substâncias químicas e reagentes para

16
determinar as concentrações de vários analitos para fins de diagnóstico clínico.
Um problema comum é a interferência endógena e exógena.

Estes fatores interferentes comprometem muito a interpretação


apropriada dos resultados, e esta intromissão interfere na assistência prestada
ao paciente e aumenta os custos da assistência de saúde. Seria muito ingênuo
concluir que cada variável provoca sempre um efeito específico.

Na verdade, o efeito depende de pessoa para pessoas, da duração da


exposição a cada variável e ao intervalo de tempo entre o estresse inicial, à
coleta da amostra e ao grau de exposição. É crucial a conscientização de que
muitos fatores que ocorrem fora do laboratório de análises clínicas, seja no
paciente ou em torno dele, influenciam o resultado do exame antes de a amostra
chegar ao laboratório ou até mesmo antes da coleta da amostra.

Esses fatores podem ser minimizados quando o profissional de saúde faz


uma boa anamnese e se existe uma boa comunicação dessas informações entre
o profissional de saúde e o laboratório.

QUAIS SÃO AS CAUSAS DE ANORMALIDADES NOS EXAMES (ALÉM


DE DOENÇA)? O processo engloba as fases pré-analítica, analítica e pós-
analítica e serve como base para a elaboração e a implementação de
intervenções, restrições ou limites que possam reduzir ou eliminar a
probabilidade de erros.

As evidências de estudos recentes mostram que uma grande


porcentagem dos erros laboratoriais ocorre nas etapas pré-analítica e pós-
analítica.

Os erros nas etapas pré-analítica (61,9%) e pós-analítica (23,1%)


ocorreram muito mais frequentemente do que os erros analíticos (15%). Cerca
de 25% desses erros podem ter repercussões para o paciente, seja por demora
na liberação do resultado dos exames, seja por ameaçar a vida do paciente.

Os fatores pré-analiticos atuam no paciente e na amostra antes da


realização da sua análise. Esses fatores podem ser subdivididos naqueles que

17
atuam in vivo (biológicos ou fisiológicos) e nos que atuam in vitro (manipulação
da amostra e fatores interferentes).

FATORES FISIOLÓGICOS

Alguns fatores fisiológicos estão além do nosso controle, tais como idade,
sexo e raça.

A maneira de controlá-los é aplicar limites de referência apropriados.


Outros fatores, como dieta, jejum, postura, variações diurnas e sazonais, ciclo
menstrual, gravidez têm de ser levados em consideração quando os resultados
dos exames são interpretados.

A idade apresenta efeito perceptível nos resultados de alguns exames,


sendo necessário estabelecer intervalos de referência apropriados.

Em recém-nascidos, a composição do sangue é influenciada pelo grau de


maturidade ao nascimento.

Os valores dos adultos são, em geral, usados como referência ao serem


avaliadas pessoas jovens e idosas.

A maioria dos elementos avaliados permanece constante entre a


puberdade e a menopausa nas mulheres e entre a puberdade e a meia idade
nos homens.

As concentrações plasmáticas de vários elementos elevam-se nas


mulheres após a menopausa. Os níveis hormonais são afetados pelo
envelhecimento, embora as alterações nas concentrações sejam muito menos
acentuadas do que a resposta endócrina aos estímulos.

Até a puberdade, há poucas diferenças nos dados laboratoriais entre


meninos e meninas.

Após este período, as alterações características dos níveis dos hormônios


sexuais tornam-se evidentes.

18
Além das alterações hormonais conhecidas durante o ciclo menstrual,
existe elevação evaçevação pré-ovulatória das concentrações de aldosterona e
renina.

Coincidindo com a ovulação, os níveis séricos de colesterol são mais


baixos do que em outras fases do ciclo menstrual.

Na gravidez, existe um efeito dilucional consequente ao aumento do


volume plasmático médio (responsável pela hemodiluição).

A gravidez normal caracteriza-se por importantes adaptações fisiológicas


que modificam os valores hematológicos e bioquímicos do sangue materno.

Além disso, há flutuações relacionadas com o tempo dos níveis de


determinados analitos. Muitos destes, tais como cortisol, tireotropina (TSH),
hormônio do crescimento (GH), potássio, glicose, ferro e citocinas pró
inflamatórias, apresentam variação diurna. Torna se difícil a determinação
acurada de hormônios, como o hormônio luteinizante (LH), hormônio
foliculoestimulante (FSH) e testosterona, que são liberados em breves salvas
(menos de 2 min).

Variações sazonais também influenciam determinados analitos, como a


vitamina D (mais elevada no verão), o colesterol e os hormônios tireóideos (mais
elevados no inverno). Existem alterações dos níveis de alguns componentes do
sangue quando a pessoa está ao nível do mar ou se encontra em grandes
altitudes. Hematócrito, hemoglobina e proteína C reativa (PCR) podem ser mais
elevados em pessoas que residem em grandes altitudes.

Os níveis de renina plasmática, transferrina, creatinina urinária,


depuração (clearance) de creatinina e estriol caem com o aumento da altitude.

O efeito da dieta nos resultados dos exames complementares é complexo,


e estes simplesmente não podem ser separados nas categorias “em jejum” e
“sem jejum”.

Diferenças clinicamente significativas são observadas em até 1 a 4 h dos


seguintes exames: triglicerídios, albumina, cálcio, ferro, LDH, fósforo, magnésio,
linfócitos, eritrócitos, hemoglobina, hematócrito.

19
O tipo de dieta (rica em gordura, hipolipídica, vegetariana ou desnutrição),
o período de tempo desde a última refeição e interferências nutricionais
específicas podem influenciar os resultados de alguns exames.

O consumo de cafeína, farelo, serotonina (consumo de frutas e legumes,


como bananas, abacates e cebolas), fitoterápicos (p. ex., aloe vera, senna,
rheum palmatum, quinino e quinidina), drogas ilícitas, alcoólicas e tabaco podem
induzir efeitos a curto e longo prazos que modificam os resultados de vários
analitos.

É difícil diferenciar os efeitos provocados pela raça daqueles provocados


pelas condições socioeconômicas.

Os metabolismos de carboidratos e lipídios são diferentes em brancos e


negros.

A tolerância à glicose é menor em negros, polinésios e indígenas norte-


americanos em comparação com os brancos.

Os estresses físicos e mentais influenciam as concentrações de muitos


elementos do plasma, inclusive cortisol, aldosterona, prolactina, TSH, colesterol,
glicose, insulina e lactato.

Nas pessoas cegas, a estimulação normal do eixo hipotálamo hipofisário


é reduzida e, consequentemente, determinado achado de hipopituitarismo e
hipoadrenalismo pode ser encontrado.

Em alguns indivíduos cegos, as variações diurnas normais do cortisol


persistem, enquanto em outros isso não ocorre.

A febre provoca muitas respostas hormonais, assim como o choque e o


traumatismo.

O estresse das intervenções cirúrgicas comprovadamente reduz em 50%


os níveis séricos de triiodotironina (T3) em pacientes com doença tireóidea.

As transfusões e infusões também modificam significativamente a


concentração de determinados valores laboratoriais.

20
Quando a pessoa está recebendo uma infusão, a amostra de sangue não
deve ser coletada proximalmente ao local puncionado, e sim no outro braço. Um
intervalo de pelo menos 8 h é essencial antes da coleta de sangue de um
indivíduo que recebeu uma emulsão lipídica.

No caso de pacientes recebendo transfusão de sangue, a magnitude da


hemólise e a consequente elevação dos níveis de potássio, lactato
desidrogenase (LDH) hemoglobina livre liberada estão relacionadas com a idade
do sangue transfundido.

Algumas atividades físicas, como subir e descer alguns lances de escada,


ou exercícios vigorosos, entre os quais, correr uma maratona ou exercícios
aeróbicos, podem afetar os resultados obtidos de vários analitos.

Na tentativa de minimizar as variáveis pré-minimizar as variáveis pré-


analíticas introduzidas pelo exercício físico, os indivíduos devem ser orientados
a evitar atividades extenuantes na noite anterior aos exames complementares e
não se cansar caminhando muito, correndo ou subindo escadas antes da coleta
de amostra de sangue.

Além disso a lesão muscular associada ao traumatismo intervenções


cirúrgicas elevará a atividade sérica de enzimas oriundas de músculos
esqueléticos, e esta atividade pode persistir durante vários dias.

Os volumes plasmático e extracelular diminuem alguns dias após o início


do repouso no leito.

O repouso prolongado no leito resulta em retenção de líquido e os níveis


plasmáticos de proteína e albumina diminuem, respectivamente, 0,5 e 0,3 g/d ℓ
(em média).

Como resultado, as concentrações de proteína ligada também diminuem.


As alterações posturais durante a coleta de sangue podem influenciar as
concentrações de vários analitos determinados no soro ou no plasma.

A passagem do decúbito dorsal para a posição ortostática ou para a


posição sentada pode provocar desvio da água corporal do compartimento
intravascular para o compartimento intersticial.

21
Dessa maneira, há elevação das concentrações de moléculas maiores
que não podem ser filtradas.

Esses efeitos são marcantes nos pacientes com tendência a edema,


como na insuficiência cardiovascular e cirrose hepática.

FATORES RELACIONADOS COM A MANIPULAÇÃO DAS


AMOSTRAS

Entre as variáveis pré-analíticas controláveis, a coleta da amostra é a mais


crucial.

A maioria dos erros pré-analíticos consiste em coleta incorreta da


amostra, seja por identificação incorreta do paciente, volume insuficiente para a
realização do exame, razão incorreta entre sangue total e anticoagulante e
qualidade da amostra (hemólise, coágulos, contaminação e coleta em recipiente
errado).

Hemólise, lipemia e icterícia exercem efeitos variáveis nos ensaios, e


estes efeitos dependem do método usado e do analito.

Outras variáveis pré-analíticas são o tempo e a temperatura de


armazenamento da amostra e as etapas de processamento durante a separação
do soro ou do plasma ou das células. Sistemas de tubos pneumáticos de
comprimentos variáveis são rotineiramente utilizados em muitos hospitais para
transporte de tubos de coleta de sangue até o laboratório de análises clínicas.

Diferenças significativas são observadas nos níveis plasmáticos (mas não


nos níveis séricos) de LDH quando os tubos de coleta de sangue são
transportados por sistemas de tubos pneumáticos.

A aplicação de torniquete (com consequente redução da pressão abaixo


da pressão sistólica) mantém a pressão de filtração efetiva nos capilares. Como
resultado, moléculas pequenas e líquido são transferidos do espaço
intravascular para o interstício.

22
A aplicação de torniquete por mais de 1 min pode resultar em
hemoconcentração de grandes moléculas que não conseguem atravessar a
parede capilar.

Para minimizar os efeitos pré-analíticos do tempo de aplicação do


torniquete, o torniquete deve ser liberado assim que a agulha penetrar na veia.
Evitar o cerramento excessivo do punho durante a flebotomia e manter o
torniquete aplicado por menos de 1 min são medidas que conseguem minimizar
os erros pré-analíticos. Vários sais de heparina, ácido etilenodiamino tetra-
acético (EDTA) e citrato de ódio são muito empregados nos laboratórios de
análises clínicas.

A heparina é o anticoagulante preferido para amostras de sangue quando


se deseja determinar os níveis de eletrólitos e outros elementos rotineiros da
bioquímica sanguínea.

As diferenças evidentes nos resultados em soro e plasma heparinizado


de determinados analitos estão relacionadas com o consumo de fibrinogênio e a
lise de elementos celulares durante o processo de coagulação. EDTA é o
anticoagulante mais utilizado para as determinações hematológicas rotineiras.

O EDTA atua como anticoagulante porque é quelante dos íons cálcio


necessários para a cascata da coagulação.

Citrato tem sido usado como anticoagulante quando são coletadas


amostras de sangue para coagulograma, tais como tempo de protrombina (TP)
e tempo de tromboplastina parcial (TTP).

Um laboratório de análises clínicas que utiliza citrato a 3,2% ou 3,8% para


determinar o TP de pacientes em uso de anticoagulantes orais não deve trocar
as formulações. Se fizer isto, a consequência é a alteração da razão normalizada
internacional (RNI), que é empregada para relatar os resultados do TP.

Fluoreto de sódio e iodoacetato de lítio têm sido utilizados, isoladamente


ou em combinação com anticoagulantes, como oxalato de potássio, EDTA,
citrato ou heparina de lítio, para coleta de amostras de sangue.

23
Se não houver inibidores glicolíticos, uma redução do nível de glicose de
até 24% pode ocorrer em 1 h após a coleta de sangue em recém-nascidos, em
contraste com uma queda de 5% nos indivíduos saudáveis quando a amostra é
armazenada na temperatura ambiente.

A razão entre anticoagulante e sangue é crucial para alguns exames


laboratoriais.

De modo geral, a coleta de amostras de sangue menor que o volume


nominal aumenta a molaridade efetiva do anticoagulante e induz alterações
osmóticas que influenciam as características morfológicas dos elementos
celulares do sangue.

Além disso, a ligação de analitos, como cálcio iônico ou magnésio, à


heparina pode ser incrementada quando a concentração efetiva de heparina não
fracionada aumenta além do normal (14,3 U/m ℓ de sangue).

Ademais, a estabilidade de vários analitos é significativamente reduzida


no plasma (heparina de lítio), em comparação com os tubos de soro, quando o
plasma é armazenado, mas não é separado do gel após a centrifugação.

Virtualmente, todos os fármacos influenciam os resultados dos exames


laboratoriais, apresentando efeitos in vivo (farmacológicos) assim como in vitro
(efeitos interferentes e metodológicos).

O problema da interferência farmacológica é complexo e, de modo geral,


os médicos estão cientes dos principais efeitos terapêuticos do fármaco ou da
substância. Não obstante, muitos efeitos secundários são ignorados.

Alguns dos exemplos incluem a elevação dos níveis das enzimas


hepáticas com o uso de difenil hidantoína e barbitúricos, a elevação dos níveis
de fibrinogênio, transferrina e amilase após a utilização de anovulatórios orais e
contrastes (gadolínio) e redução dos níveis totais de cálcio.

Muitos medicamentos, tais como anticoagulantes (heparina, varfarina e


inibidores diretos da trombina), transfusão de hemoderivados e componentes e
reposição de fatores da coagulação, comprometem os resultados do

24
coagulograma. Fármacos de venda livre (p. ex., ácido acetilsalicílico, AAS etc.)
exercem efeitos prolongados nas provas de função plaquetária.

Além disso, o estado fisiológico do paciente também tem uma


participação. A qualidade das amostras enviadas ao laboratório de microbiologia
é crucial para a avaliação ideal delas.

As técnicas gerais de coleta e manipulação de amostras instituídas para


maximizar a detecção de microrganismos e isolar patógenos relevantes das
amostras obtidas de diferentes locais do corpo devem ser revistas com o
laboratório antes da coleta.

Além disso, a interpretação válida dos resultados da cultura só é possível


quando a amostra obtida é apropriada para o processamento.

Logo, é preciso ter cuidado para coletar somente as amostras que podem
conter patógenos em vez de flora colonizadora ou contaminantes.

As regras específicas para a coleta de material variam de acordo com a


origem da amostra, mas existem vários princípios gerais.

O transporte imediato das amostras para o laboratório de microbiologia é


essencial para otimizar o resultado das culturas e a interpretação dos resultados.
Atrasos no processamento podem ensejar a proliferação excessiva de alguns
microrganismos ou a morte de outros mais exigentes.

O ideal é que as amostras para cultura bacteriana cheguem ao laboratório


de microbiologia em 1 a 2 h após a coleta. Se a demora for inevitável, a maioria
das amostras (com exceção de sangue, líquido cerebrospinal, líquido articular e
culturas para Neisseria gonorrhoeae) deve ser refrigerada atéser transportada.

25
ERROS ANALÍTICOS

Há muito tempo, os laboratórios de análises clínicas focam sua atenção


nos métodos de controle de qualidade em programas de todos de controle de
qualidade e com aspectos analíticos dos exames.

O erro analítico total (ou erro de medida) consiste nos erros de análise de
todas as fontes desde a coleta dos dados.

Algum erro é esperado porque nem todos os componentes da


mensuração são iguais. Existem quatro tipos principais de erro experimental:
aleatório (imprevisível), sistemático (unidirecional), total (aleatório e sistemático)
e idiossincrático (não metodológico).

Os erros consequentes a problemas analíticos foram significativamente


reduzidos com o passar do tempo, contudo, há evidências de que, sobretudo nos
imunoensaios, a interferência tenha impacto substancial nos pacientes.

Paraproteínas podem interferir nas determinações bioquímicas quando


formam precipitados durante a realização do exame.

Anticorpos heterofílicos são de natureza humana que conseguem ligar se


a anticorpos de animais.

Eles podem interferir nos imunoensaios, sobretudo os imunométricos,


porque têm a capacidade de formar uma ligação entre os anticorpos de captura
e detecção, provocando resultados falso/positivona ausência de analito ou, no
caso da verificação deste, elevação espúria das concentrações medidas.

Muito raramente, os anticorpos heterofílicos também podem promover


resultados falso negativos ou falsamente baixos. Níveis muito elevados de
hormônio podem interferir nos sistemas de imunoensaios, resultando em
determinações falsamente baixas do analito. Isso é atribuível ao “efeito gancho”,
que descreve a inibição da formação do imunocomplexo por concentração
excessiva de antígeno.

Existem proteínas que sabidamente formam agregados com


imunoglobulinas ou proteínas de alto peso molecular.

26
Proteínas clinicamente relevantes que têm formas “macro” (inclusive
amilase, creatinoquinase, LDH e prolactina) conseguem elevar os resultados
quando são usados determinados exames laboratoriais, e o paciente não
apresenta a doença clínica relacionada com a concentração elevada do analito.

A interferência no imunoensaio não é específica para o analito e é variável


ao longo do tempo.

Existem em alguns casos onde ocorre em pacientes, essa interferência


pode persistir por um longo período de tempo e, em outros, ser fugaz. Tal
interferência influencia alguns lotes de ensaios, mas não todos eles.

Além disso, kits de exame de outro fabricante apresentam reações


cruzadas diferentes com compostos interferentes e os resultados dos exames
variam de um laboratório para outro.

Os resultados incorretos também podem resultar de um grande número


de fenômenos biologicamente comuns que provocam variação analítica, tais
como crioaglutinina, formação de rouleaux, efeitos matriciais
osmóticos,aglutinação plaquetária, plaquetas gigantes, eritrócitos não lisados,
eritrócitos nucleados, megacariócitos, inclusões/eritrocitárias, crioproteínas,
mucina circulante, leucocitose, hemólise in vitro, microcitose extrema,
bilirrubinemia, lipemia e outros.

VALORES DOS EXAMES COMPLEMENTARES

Antes de um método ser empregado rotineiramente, os protocolos de


avaliação precisam garantir que o procedimento de determinação atenda a
critérios definidos, por exemplo, acurácia, precisão e estabilidade necessárias
para responder às demandas da população de pacientes do laboratório.

Quatro indicadores são mais frequentemente empregados para


determinar a confiabilidade de um exame laboratorial. Dois deles, acurácia e
precisão, refletem o desempenho cotidiano do método de exame no laboratório
de análises clínicas.

27
Os outros dois, sensibilidade e especificidade, mostram quão bem o
exame diferencia a doença da ausência de alguma enfermidade.

A acurácia e a precisão de cada método de exame são estabelecidas e


monitoradas frequentemente pelo laboratório de análises clínicas.

Os dados sobre sensibilidade e especificidade são determinados por


pesquisa e ensaios clínicos.

Embora cada exame tenha suas medidas de desempenho e seus usos


apropriados, os exames laboratoriais são elaborados de modo a serem tão
precisos, acurados, específicos e sensíveis quanto for possível.

Acurácia e precisão “Acurácia” (exatidão) consiste na capacidade do


exame em realmente determinar aquilo que deve descrever e é definida como a
proporção de todos os resultados (tanto positivos quanto negativos) que estão
corretos.

A precisão (repetibilidade) descreve a capacidade do exame reproduzir o


mesmo resultado quando repetido no mesmo paciente ou na mesma amostra.

Os dois conceitos estão relacionados, mas são diferentes. Por exemplo,


um exame poderia ser preciso, mas não acurado se em três ocasiões produzir
quase o mesmo resultado, mas se este for muito diferente do valor verdadeiro
determinado por um padrão de referência.

A sensibilidade é definida como a capacidade do exame em identificar


corretamente os indivíduos com a doença pesquisada.

Consiste no número de indivíduos com exame positivo que têm a doença


dividido pela quantidade total de indivíduos com a doença.

Um exame com elevada sensibilidade dispõe de poucos resultados


falso/negativos.

A especificidade é definida como a capacidade do exame em identificar


corretamente os indivíduos que não apresentam a doença.

28
É o número de indivíduos com exame negativo e sem a doença dividido
pelo número total de indivíduos que não apresentam a enfermidade. Um exame
com especificidade alta tem poucos resultados verdadeiro /negativos.

Sensibilidade e especificidade são mais úteis quando se avalia um exame


usado no rastreamento de uma população de vida livre.

Essas características do exame também são interdependentes: o


aumento da sensibilidade é acompanhado por diminuição da especificidade e
vice-versa.

Os valores preditivos são importantes na avaliação da utilidade de um


exame na prática clínica no nível do paciente individual.

O valor preditivo positivo (VPP) é a probabilidade de doença em um


paciente com um exame positivo, enquanto o valor preditivo negativo (VPN)
trata-se das probabilidades de que o paciente não tenha a enfermidade se o
resultado do exame for negativo.

O VPP e a sensibilidade dos exames são complementares na análise dos


verdadeiro-positivos. Visto que o exame é positivo, o VPP é a probabilidade de
que exista doença, ao contrário da sensibilidade, que baseia existência da
doença e na probabilidade de que o exame seja positivo.

Do mesmo modo, o VPN e a especificidade são complementares na


análise dos verdadeiro-negativos.

Visto que o exame é negativo, o VPN é a probabilidade de que não existe


doença.

Isto é o contrário da especificidade, a qual parte do pressuposto de que


não há enfermidade e a probabilidade de que o exame seja negativo.

Os valores preditivos dependem da prevalência da doença em uma


população.

Um exame com determinadas sensibilidade e especificidade pode ter


valores preditivos distintos em populações de pacientes diferentes. Se o exame

29
for realizado em uma população com prevalência elevada da doença, o VPP será
alto.

O mesmo exame, entretanto, terá um VPP baixo quando for usado em


uma população com pouca prevalência da doença.

Ao final da década de 90, verifica-se uma vasta literatura demonstrando


como os constituintes dos alimentos podem influenciar a biodisponibilidade de
fármacos e vice-versa.

Entretanto, depara-se com a falta de informações de ordem prática, em


programas hospitalares, os quais ajudariam muito a equipe de saúde e,
principalmente, os usuários de medicamentos de uso contínuo, portadores de
doenças crônicas degenerativas, idosos e aqueles com estado nutricional
insatisfatório.

Muitos dos efeitos adversos observados ao longo da vida de um indivíduo


não são documentados ou, então, são simplesmente entendidos como
consequências do medicamento, não se considerando o processo de interação
fármaco-nutriente.

No Brasil, não existe um programa de educação e acompanhamento do


paciente em hospitais, universitários e não universitários, envolvendo este
assunto.

Nos países de Primeiro Mundo, a exemplo dos Estados Unidos, são


poucos os hospitais que possuem programa de educação e acompanhamento,
com o objetivo de determinar a extensão destes processos, os quais ocorrem no
dia-a-dia. Programas de monitorização ajudariam a detectar e prevenir
problemas potencialmente sérios de interação fármaco-nutriente.

Em síntese, Basile (1994) comenta com muita propriedade: "O


conhecimento prévio das características do paciente (necessidades,
idade, funções fisiológicas, estado nutricional, hábitos de alimentação),
da doença (crônica, aguda ou ambas) e do medicamento (eficácia,
margem de segurança, posologia, modo e tempo de utilização)
constitui conduta ética que, com certeza, cerceia os riscos advindos
das interações entre fármacos e alimentos".

30
A assistência à saúde deve ser baseada em evidências científicas,
incluindo parâmetros adequados para os exames bioquímicos.

Valor de referência é um dos elementos mais importantes de um exame


laboratorial, visto que auxilia os profissionais de saúde na interpretação dos
resultados, no atendimento, cuidado, diagnóstico e tratamento de doenças,
contudo a origem desses valores raramente é especificada pelos laboratórios e
tais valores muitas vezes são utilizados sem se observar a aplicabilidade para a
população.

Os valores de referência podem ser influenciados por fatores individuais,


populacionais e ecológicos, como idade, sexo, raça, nível socioeconômico,
presença de fatores de risco, estado fisiológico, geografia, exposição a agentes
químicos, físicos e biológicos. Por isso, devem ser diferentes entre as
populações.

Para estimar os valores de referência, torna-se importante realizar


estudos com base em pesquisas representativas da população, para
interpretação correta dos resultados. Esses valores podem ser obtidos por meio
de estudos transversais ou longitudinais, nos quais os indivíduos são
acompanhados ao longo do tempo.

Determinar os valores de referência de exames laboratoriais é um grande


desafio, pois exige metodologia adequada, que inclui a amostragem
representativa da população e cuidados metodológicos na coleta, no
processamento, no transporte e na análise bioquímica e estatística.

Portanto, estimar parâmetros específicos para cada população ainda não


constitui a realidade de alguns países, sendo restrito aos países desenvolvidos,
que conduzem inquéritos populacionais os quais, por esse motivo, são
empregados como parâmetros globais.

Para obter estimativas adequadas à sua população, alguns países


adotam inquéritos específicos, como, por exemplo, o Canadian Laboratory
Initiative on Paediatric Reference Intervals (CALIPER) ou o Canadian Health
Measures Survey (CHMS).

31
Na Austrália, os laboratórios matriculados no Programa de Garantia de
Qualidade do Royal College of Pathologists of Australasia definiram parâmetros
sobre os intervalos de referência em hematologia.

No Brasil, ainda são utilizados os valores de referência de outros países,


entretanto a Pesquisa Nacional de Saúde (PNS) incluiu no seu escopo a coleta
de exames bioquímicos de sangue e urina, para assim, entre outros objetivos,
obter os primeiros valores de referência da população adulta brasileira.

O estabelecimento dos valores de referência específicos da população


brasileira pode fornecer informações importantes que permitam a interpretação
mais fidedigna e adequada dos resultados dos exames laboratoriais.

Além disso, evita o uso de valores de referências de outros países,


principalmente pelo fato de a população brasileira caracterizar-se pela
miscigenação de uma diversidade de raças, etnias, povos, segmentos sociais e
econômicos.

Em razão da importância da padronização dos valores de referências,


este estudo teve como objetivo descrever valores de referência para exames
laboratoriais de hemograma da população adulta brasileira segundo os
resultados laboratoriais da PNS.

O Brasil vem sofrendo mudanças em seu perfil demográfico,


consequência, entre outros fatores, do processo de urbanização populacional,
da industrialização e dos avanços da ciência e da tecnologia. Somando-se aos
novos estilos de vida e a exposição, ainda mais intensa, a fatores de risco
próprios do mundo contemporâneo.

Toda essa mudança comportamental e ambiental trouxe uma alteração


importante no perfil de morbimortalidade, diminuindo a ocorrência das doenças
infectocontagiosas e colocando as doenças crônico-degenerativas como novo
centro de atenção dos problemas de doença e morte da população brasileira.

No Brasil, a estimativa para o ano de 2014, que será válida também para
o ano de 2015, aponta para a ocorrência de aproximadamente 576 mil casos

32
novos de câncer, incluindo os casos de pele não melanoma, reforçando a
magnitude do problema do câncer no país.

É incontestável que o câncer é hoje, no Brasil, um problema de saúde


pública, cujo controle e prevenção deverão ser priorizados em todas as regiões.
Para o Brasil em 2014, foram esperados 57.120 casos novos de câncer de
mama, com um risco estimado de 56,09 casos a cada 100 mil mulheres.1

O câncer de mama é o que mais acomete as mulheres em todo o mundo,


tanto em países em desenvolvimento quanto em países desenvolvidos. Passou
de 641.000 casos em 1980 para 1.643.000 casos em 2010, sendo responsável
por 27% dos novos casos de câncer diagnosticados em mulheres.

Destes, cerca de dois terços ocorreram em mulheres acima de 50 anos,


principalmente nos países desenvolvidos. Já nas mulheres abaixo dos 50 anos
(entre 15 e 49 anos), a incidência de câncer de mama foi duas vezes maior nos
países em desenvolvimento do que nos desenvolvidos.

Diagnósticos e os tratamentos dos variados tipos de câncer, passaram


por importantes e expressivos avanços ao longo das últimas duas décadas.

Os métodos ficaram mais modernos e específicos, desde imaginologia até


técnicas de biologia molecular, o que tem permitido um diagnóstico apurado,
acompanhamento adequado e avaliação de prognósticos dos pacientes. Tanto
o avanço nos diagnósticos quanto nos tratamentos tem possibilitado sobrevida
progressivamente maior em casos considerados incuráveis até pouco tempo.

Contudo um número relevante de casos de possível detecção precoce,


como o câncer de mama e o colorretal, em nosso país ainda são diagnosticados
em estágios avançados de evolução.

Por essa razão, a primeira barreira a ser vencida é priorizar o diagnóstico


precoce e a maior perspectiva de cura, uma ação em conjunto entre as
autoridades governamentais, mídia, população e médicos.

Com o desenvolvimento de modalidades terapêuticas mais específicas


como terapia antiangiogênica, inibidores de fatores de crescimento e
imunoterapia, o câncer vai se tornar mais uma doença crônica, que será

33
acrescentada a lista de doenças desenvolvidas com o avanço da expectativa de
vida.

Cerca de dez mil mulheres morrem anualmente em nosso país, em virtude


do diagnóstico tardio, que é a principal causa da intratabilidade do tumor.

Em 60% dos casos, o tumor só é diagnosticado em estágio muito


avançado. Sabe-se que o diagnóstico do câncer tem influência direta na
evolução e prognóstico, sendo a precocidade do diagnóstico diretamente
proporcional às chances de cura.

A mamografia é o método mais conhecido e utilizado nos seguimentos de


saúde para o rastreamento e diagnóstico do câncer mama, contudo tal técnica
vem sendo estudada e avaliada para saber sua real eficácia no diagnóstico
precoce do câncer de mama.

Um artigo publicado em 2012 pelo Colégio Brasileiro de radiologia e


Diagnóstico por imagem, da Sociedade Brasileira de Mastologia e da Federação
Brasileira das Associações de ginecologia e Obstetrícia para rastreamento do
câncer de mama por métodos de imagem, recomenda que a mamografia seja
opção de rastreamento para mulheres entre 40 e 60 anos e para aquelas abaixo
dos 40 anos apenas em casos especiais, em que há histórico familiar da doença
ou mutação no gene BRCA, por exemplo.

Visto que em mulheres nesta faixa etária a frequência do tumor é baixa, a


mamografia apresenta menor sensibilidade e o parênquima maior
radiossensibilidade.

Tendo como base as diversas pesquisas a respeito do tema e o aumento


no número de mortes por câncer de mama, pesquisadores, cientistas e demais
especialistas tem se dedicado na busca de novos métodos de diagnóstico para
o câncer de mama.

Este estudo tem como objetivo elucidar as vantagens e problemas das


técnicas tradicionais em diagnóstico, o que tem de inovador no mercado para o
diagnóstico precoce do câncer de mama e os motores/desafios nesse avanço.

34
MAMOGRAFIA

A mamografia é o exame padrão ouro na detecção precoce do câncer de


mama e o mais efetivo da atualidade, tem especificidade de aproximadamente
90%, consegue visualizar de 85 a 90% dos casos, um tumor com mais de dois
anos de antecedência de ocorrer comprometimentos dos gânglios, em pacientes
com mais de 50 anos.

O objetivo da mamografia é produzir imagens detalhadas com alta


resolução espacial da estrutura interna da mama para possibilitar bons
resultados através de alterações nas mamas. Para alcançar sua total capacidade
diagnóstica é necessário o correto posicionamento do paciente, o bom estado e
a uma alta qualidade do aparelho, os profissionais que efetuamos exames sejam
devidamente preparados, que sigam padrões rígidos e pré-estabelecidos além
do equipamento adequado. Contudo, devido à ausência de alguns desses
processos falhas ocorrem e geram problemas no resultado da mamografia.

Conforme um programa de acreditação do American College of radiology


(ACR), em que foram analisados 2.341exames de mamografia, os artefatos
foram reportados como o sexto problema em ordem de importância, sendo
responsáveis por 11% das falhas no exame.

Os mais recorrentes foram pó, poeira, linhas de grade e marcas dos rolos
do processador. Artefatos são defeitos no processamento do filme ou qualquer
variação na densidade mamográfica não causada por atenuação real da mama
(incluindo corpos estranhos e dispositivos médicos implantados).

Tais artefatos comprometem a qualidade final da imagem e podem


resultar em informações perdidas ou mascaradas, incluindo resultados falso-
positivos e falso-negativos. E dependem de série de variáveis, podendo estar
relacionados ao processador, ao desempenho do técnico de radiologia, à
unidade mamográfica ou ao paciente.

Em uma estimativa feito pelo INCA sobre a cobertura de mamografias aqui


no Brasil, mais especificamente em 15 capitais e no Distrito Federal, variou de

35
37 a 76%, contudo os dados do Sistema Único de Saúde, apontam que
percentual de mamografias foi de 17% e 54% do total, o que em parte explica o
diagnóstico tardio e as altas taxas de mortalidade o tempo médio para
diagnóstico e início do tratamento das pacientes com tumores palpáveis supera
120 dias.

Esse quadro, é consequência do deficiente atendimento na rede primária,


ausência de diretrizes e a falta de treinamento e acesso rápido do primeiro
atendimento. Somasse a isso, o fato que os médicos muitas vezes solicitam
exames desnecessários, que sobrecarregam e oneram os Centros de referência.

Tais evidências mostram claramente que antes de se desencadear ações


no sentido de detectar precocemente o câncer de mama, é necessário priorizar
a paciente com tumor palpável, localizando os Centros de referência que
efetivamente são atuantes para facilitar o acesso à rede pública e que os
mesmos estejam capacitados e hierarquizados para o diagnóstico resolutivo.

No Brasil existem por volta de cinco mil mamógrafos, metade deles estão
no SUS mas os aparelhos concentram-se no Sul e Sudeste, fazendo com um
maior número de pacientes demore mais para diagnosticar e tratar do câncer de
mama em outras regiões.

Outro problema é que muitos mamógrafos estão em desuso, quebrados


ou sem manutenção. Alguns nem chegaram a ser abertos, por falhas na gestão
ou falta de pessoal para manuseá-los. Além, das técnicas deficientes na
realização dos exames, o que por vezes compromete os laudos médicos. O
percentual de mulheres na faixa etária de maior risco [50 a 69 anos] que fazem
a mamografia pelo SUS não passa de 14% a 34%.

Infelizmente, no momento o Brasil não pode implantar o rastreamento


mamográfico em todo o território, devido à falta de recursos econômicos para o
exame e, principalmente, de infraestrutura para a continuidade investigacional
das lesões não palpáveis.

Grande parte dos estados da federação, inclusive da região sudeste, só


disponibiliza o exame para diagnóstico. Por isso, que a prioridade deve ser
investir em programas de capacitação médica, hierarquizar e garantir acesso

36
rápido aos centros secundários e terciários para atendimento resolutivo, o que
irá acarretar em condições de fluxo efetivo para o rastreamento da doença,
objetivando em médio prazo uma efetiva redução da mortalidade do câncer.

A Mamografia pode ser Convencional (MC), Digital (MD) Direta ou Digital


indireta, a MD substituiu a Convencional, devido aos sistemas digitais
apresentam capacidades de armazenamento e comunicação e a possibilidade
de otimização da qualidade de imagem nas diferentes etapas.

Desde os anos 90, a mamografia digital tem sido desenvolvida e tornou-


se opção de escolha de muitos especialistas quando comparada a convencional.
Existem dois tipos de sistemas em MD, num deles existe uma conversão da
radiação X em imagem digital no momento da exposição (conversão direta), no
outro, a radiação X vai pressionar uma Imagem Plate (IP) formando uma imagem
latente que é digitalizada posteriormente (conversão indireta).

O desempenho da mamografia digital foi significativamente melhor do que


o convencional em mulheres com idades inferiores a 50 anos, aquelas que têm
mama muito densa e que estão na pré-menopausa.

Os novos avanços em imaginologia mamária contribuem para uma


melhoria na detecção da doença em estadios precoces, como por exemplo, a
Mamografia com Contraste, a tomossíntese e a Positron Emission Tomography
(PET). A mamografia com contraste é uma técnica que o meio de contraste pode
aumentar a visualização de alterações vasculares. As imagens são sujeitas a um
processamento, resultando numa imagem em que são mostrados
essencialmente os tecidos com aumento de contraste derivado da absorção do
iodo.

A tomossíntese tem o potencial de aumentar e melhorar a detecção de


diagnóstico de câncer em mulheres com mamas radio densas e/ou
fibroquisticas. Permitindo a obtenção de vários planos da mama, melhorando a
visualização de estruturas suspeitas ou ocultas pela sobreposição de tecidos
mais densos. Já a PET, permite através da marcação de moléculas de glicose
com isótopo radioativo de flúor (18F) acompanhar e registrar a captação desta
pelas células bem como a sua acumulação- efeito Warburg, tornandose um
importante marcador biológico tumoral. Outro marcador que se apresenta

37
bastante promissor em PET/PEM é a FLT (18F-fluoro-L-timidina), pois a sua
captação é menos sensível a áreas de inflamação ou danos recentes, tais como
biópsias.

A mamografia seja digital ou convencional apresenta limitações que


atestam a necessidade de melhoria no exame em si por utilizar radiação
ionizante expõem as mulheres a riscos, por menores que sejam níveis de
radiação, pode trazer consequências à saúde em longo prazo.

Além das taxas de exames falsos positivos que ocorrem nessa técnica,
cerca de 5 a 15% dos laudos requerem exames complementares para
confirmação de benignidade.

Somando se também a baixa qualidade da maior parte dos mamógrafos


disponíveis para a grande massa da população feminina, o que dificulta a leitura,
levando a interpretações errôneas, além de que só a mamografia não é suficiente
para determinar se o tumor é benigno ou maligno, sendo necessária a biopsia.

Com base em todos os dados, nas pesquisas e nos depoimentos de


especialistas fica evidente a necessidade de outros exames mais eficazes e que
de fato contribuam para a diminuição da mortalidade por câncer de mama, ou
até pelo incremento das técnicas mamo gráficas disponíveis.

RESSONÂNCIA MAGNÉTICA

Pesquisas na literatura mostram que a ressonância magnética tem mais


efetividade no diagnóstico diferencial entre as lesões benignas e malignas, pois
mostra com mais detalhes o tamanho e características morfológicas do tumor,
além da relação tumoral com estruturas anatômicas adjacentes. A maior parte
dos tumores malignos mostram impregnação relacionada a sua maior
vascularização e permeabilidade aumentada, facilitando a impregnação do
gdDTPA (gadolínio) no interior da mesma. Além desse mecanismo, os sinais
mais relevantes do carcinoma são a impregnação precoce nos primeiros e
terceiro minutos após a injeção endovenosa do gadolínio.

Vale salientar que é necessário uma avaliação criteriosa das lesões que
apresentem outras formas de impregnação, somente lesões não contrastadas

38
podem ser consideradas benignas. Outro ponto positivo da RM é sua capacidade
de mostrar a localização anatômica precisa do tumor e detectar lesões
multifocais que a mamografia não conseguiria identificar.

Entretanto, dados da literatura mostram a baixa especificidade da RM das


mamas, descrevendo sobre alguns casos de falso-positivos, quando ocorre a
impregnação de tecidos mamários não–neoplásicos pelo contraste
paramagnético. É necessário avaliar com bastante cuidado a possibilidade de
mudanças na estratégica cirúrgica em mulheres com suspeita de câncer de
mama multicêntrico, levantada somente por meio da ressonância magnética.
Casos que podem ocorrer quando a paciente apresenta carcinoma ductal in situ
e em carcinomas lobular, tubular e mucinoso. Outro problema dessa técnica é a
sua incapacidade de demonstrar microcalcificações mamárias.

A ressonância magnética apesar dessas limitações mostrou-se bastante


eficaz no diagnóstico de lesões mamárias em pacientes que estão no grupo de
risco,

As quais podem apresentar mamograficamente oculta devido à alta


concentração de tecido mamário. A RM tem uma acurácia maior que a
mamografia e o ultrassom em avaliar as características morfológicas e o
tamanho do tumor, bem como as lesões multifocais e multicêntricas. Por essas
razões existe a possibilidade de num futuro não muito distante pode substituir a
mamografia em grupos específicos de pacientes. Mas seu uso, atualmente,
precisar ser avaliado devido ao alto custo do método, que custa até vinte vezes
o preço de um exame mamográfico.

A ressonância magnética apresenta vantagens frente a mamografia e a


US, como: menor exposição à radiação, melhor visualização, localização e
morfologia de lesões malignas e a real extensão do câncer, permitindo assim um
tratamento menos agressivo. Contudo, apresenta desvantagens que dificultam
sua difusão como método de escolha, como sua baixa especificidade, gerando
problemas na diferenciação das lesões benignas e malignas como único método
complementar; tem um custo muito alto. Podendo assim, levar ao aumento no
número de cirurgias, de biópsias de mama e no custo total do tratamento. O ideal
para a ressonância magnética seria que a mesma detectasse uma maior

39
quantidade de tumores malignos no início, contudo o que acontece é que sua
sensibilidade e especificidade nos casos de carcinoma intraductal é muito menor
do que no carcinoma invasor. Portanto, antes que a RNM de mamas torne-se
um procedimento rotineiro, é preciso que estudos clínicos demonstrem seu real
benefício na redução da mortalidade por câncer demama.

ULTRASSONOGRAFIA

Desde a década de 70 entusiastas demonstraram interesse e expectativa


na utilização da USG (ultrassonografia) para o diagnóstico de câncer de mama.
Contudo, a realidade foi, até certo ponto, frustrante, devido a uma série de
fatores como a pouca experiência em sua utilização, ao uso de transdutores
inadequados, de aparelhos de baixa qualidade e da sua incapacidade de
detectar as microcalcificações suspeitas.

Assim, por um longo tempo essa técnica foi subvalorizada e até mesmo
denegrida. Mas, na década de 80 com os avanços tecnológicos na área, com
ecógrafos em tempo real e melhor resolução de imagens, a USG assumiu um
papel de destaque no diagnóstico de lesões mamárias. Possui pontos positivos,
bastante relevantes quando comparada a outros métodos, como a vantagem de
não ser invasivo, não usar radiação e ser bem tolerado pelas pacientes, além de
trazer informações valiosas que complementam o exame físico e a mamografia.
Principalmente me pacientes que possuem mamas densas, nas quais as lesões
poderiam ser ignoradas pela mamografia. Para utilizá-la como método de
rastreamento ainda não foi unanimidade entre os especialistas, ficando
desacreditada, entretanto sua ajuda como método complementar de diagnóstico
já é indiscutível.

A década de 90 foi um “ divisor de águas “ para a tecnologia da USG, foi


nesse período que surgiram modificações essenciais para seu desempenho até
os dias atuais, podemos citar: aparelhos de maior resolução com recursos de
sonográfia, a chegada do Doppler colorido, a mamotomia acoplada à USG, o
aparecimento de contrastes especiais, os aparelhos com imagem tridimensional,
sistemas computadorizados de detecção de lesões sonográficas, a avaliação
sonográfica perioperatória das margens do tumor, entre outras novidades,

40
corroboram para que a USG tenha seu uso ampliado e afirme ainda mais seu
papel como método complementar de extrema importância na mastologia.

Apesar de todas as inovações e evoluções que a técnica vem sofrendo,


desde sua primeira utilização, o diagnóstico final é sempre firmado pelo laudo
histopatológico e os mastologistas levam sempre em consideração a margem de
erro prevista em cada exame de diagnóstico por imagem.

Mais o principal determinante para a utilização da ultrassonografia


mamaria, são as disparidades encontradas nos centros de saúde em nosso país,
a população procura por exames mais baratos, mas encontrar serviços que
ofereçam aparelhos de qualidade, operadores bem treinados e experientes é
fundamental para o melhor desempenho e resultado da técnica.

MOTORES PARA INOVAÇÃO

Nos pilares da imaginologia mamária estão a mamografia e a ecografia,


que passaram por sucessivos refinamentos tecnológico são longo dos anos.
Somandose a estas estão as mais recentes como a ressonância Magnética, com
cerca de 15 anos, que também se modificou bastante e a mais recente, a
tomossíntese.

A mamografia evolui notoriamente, desde seu início com o mamógrafo


analógico, passando para sua forma digital com ecrãs com elevada resolução
espacial, fora adicional das técnicas de informática de auxílio ao radiologista, o
Diagnóstico Assistido por Computador (CAD). Que consiste na aplicação de um
algoritmo na leitura da imagem mamográfica digital, para detecção de possíveis
lesões.

Esse advento está em uso há 10 anos, tem elevada sensibilidade para


microcalcificações mas deixa a desejar na identificação de massas e distorções
arquiteturais.

Buscando sempre melhorias nessas técnicas e buscar por novas


aplicações com a finalidade de diminuir a variabilidade intra e inter radiologista e
melhorar a produtividade.

41
Os maiores limitantes da mamografia, são a queda da sua sensibilidade
em mamas densas, caindo para apenas 30-48%, sua associação de 5-15% dos
falsos negativos. Na busca de melhorias para esses limitantes, surgiu a tomos
síntese que proporciona imagens contínuas da mama, superando as dificuldades
da mamografia em ocultações de lesões por sobreposição de estruturas.

Contudo, esse método leva mais tempo para aquisição da imagem, na


leitura pelo profissional e tem uma maior dose de radiação quando comparada
com a mamografia, motivos que levam ao questionamento e cautela na sua
escolha para o rastreamento de câncer de mama.

A Ultrassonografia ou ecografia, devido ao uso de sonda com


multifrequência tem melhor desempenho ao volume e constituição das mamas,
identificando lesões milimétricas. Contudo, sua maior desvantagem, é a
dificuldade de avaliar a mama como um todo, principalmente se for volumosa,
além da detecção de microcalcificações e distorções arquiteturais. Por essas
razões, a mesma só é indicada e opção de escolha dos profissionais de saúde,
como exame de complemento. A ressonância magnética de mama tem
demonstrado ser útil em diferentes situações, como no rastreamento de
pacientes com alto risco de câncer de mama, monitoramento de resposta ao
tratamento de pacientes submetidas à quimioterapia adjuvante, As
desvantagens estão relacionadas principalmente a: baixa especificidade do
exame, longo tempo para realização exame e incapacidade de detectar micro
calcificações relacionadas ao carcinoma ductal in situ.

Fora os aspectos limitantes e particularidades das técnicas utilizadas no


diagnóstico de câncer de mama, outro fator primordial nesse processo de
inovação dos métodos de diagnóstico são os custos para sua implementação e
sua difusão para a população brasileira. Um estudo feito sobre o custo-
efetividade do rastreamento do câncer de mama com a mamografia
convencional, digital e a ressonância mostrou que: existe um esforço para a
substituição do mamógrafo convencional pelo digital, contudo o custo deste
aparelho é 1,5 a 4 vezes maior que a unidade em filme.

A ressonância, por sua vez, tem um custo cerca de vinte vezes maior que
o filme. Concluindo, que realizar um rastreamento mamográfico como filme

42
convencional é mais custo efetivo do que as outras duas estratégias com outros
equipamentos, na faixa etária de interesse.

Além dos problemas que perpassam o fator econômico e o acesso aos


meios de diagnóstico, somasse também o fator dor e desconforto durante o
exame mamográfico. Um estudo recente que analisou a dor e o desconforto que
as pacientes passam durante o exame, mostrou que: a grande maioria das
mulheres relatam sentirem desconforto ao realizarem a mamografia e que os
traumas físicos e psicológicos podem levar as mesmas a não voltarem a realizar
o exame e ainda influenciar as amigas a não se submeterem a este método
propedêutico.

A dor gerada pelo método é ocasionada pela compressão exercida pelo


prato de plástico e porta filme sobre a mama, o nível de dor varia de paciente
para paciente, mas os relatos de maior incomodo vem das pacientes mais
jovens. Levando em consideração também aspectos biológicos que fazem este
desconforto ser maior, como: a mastalgia das mamas, maior sensibilidade
devido ao uso de contraceptivo hormonal.

PRINCIPAIS INOVAÇÕES

Os principais exames de diagnóstico de câncer de mama passaram por


muitas modificações, ao longo do tempo, para melhor atender as necessidades
das pacientes e o resultado final do laudo.

Técnicas foram aprimoradas, equipamentos se modernizaram e


pesquisadores investem seu tempo e dedicação na busca de exames/técnicas
melhores. Como exemplo desse aprimoramento tecnológico temporal, podemos
citar:

O Molecular Breast Imaging (MBI), tecnologia de diagnóstico por imagem


molecular de última geração, é o pioneiro no país, para fazer a mamografia
radioisotópica ou cintilomamografia.

Aprovado de 2010 pela FDA, desde então é usado em poucos centros de


referências em diagnóstico pelo mundo. Esse aparelho consegue captar sinais

43
microscópicos de tumores, devido a substância radioativa que é injetada no
paciente e absorvida pela célula tumoral e a USG não forem suficientes.

O MBI já foi adotado pelo ANS (Agência Nacional de Saúde) pagos de


acordo com a tabela da Saúde Suplementar e tabela Unificada de Procedimentos
do SUS.

Um novo método de diagnóstico que vem ganhando espaço no mercado


e força para se firmar como solução em diagnóstico precoce é a triagem genética
que é um método utilizado antes dos primeiros sintomas aparecerem e para
prevenir doenças genéticas, iniciando um tratamento precoce e atenuar as
consequências mais graves que a doença possa trazer.

O câncer hereditário são afecções genéticas, que em determinadas


pessoas de uma mesma família, tornam-se mais prevalentes. Características
também contribuem para a pré-disposição genética, como: idade, varias pessoas
na família como mesmo tipo de câncer, mais de uma neoplasia em uma mesma
pessoa. Os genes mutantes do câncer de mama, já são bem conhecidos, são o
BRCA1 e o BRCA2, causam câncer de mama e ovários hereditários.

As pacientes que desenvolvem a mutação BRCA1 apresentam 87% de


chances de terem câncer de mama e 40 a 60 % de câncer de ovário e 65% de
chances de desenvolver um segundo câncer de amam se chegarem ate os 70
anos. Já as que possuem mutações no BRCA2, possuem cerca de 85% de
chance de desenvolverem um carcinoma de mama durante sua vida.17

Com base na triagem genética exames foram desenvolvidos para auxiliar


no diagnóstico e no tratamento do câncer de mama, existem quatro testes
conhecidos, disponíveis e utilizados na medicina atual, são eles: o teste Mamma
Print, o Oncotype Dx.

O MammaPrint analisa 70 genes para ver quais deles são ativos e, em


seguida, calcula uma pontuação que equivale ao risco de recorrência do câncer,
em escala de pequeno, médio ou alto. Pode ser usado para decisões no
tratamento baseado no risco de recorrência em estágios iniciais de RH+
(hormônio receptor positivo) ou negativo.

44
Contudo, o Mamma Print não foi incluso nos procedimentos do NCCN
(Comprehensive Cancer Center rede Nacional ) e do ASCO (Sociedade
Americana de Oncologia). O teste Oncotype DX, assim como o Mamma Print,
ele também calcula o risco de reincidência do tumor em estágio inicial, com
receptor hormonal positivo, bem como a probabilidade da mesma se beneficiar
com quimioterapia após a cirurgia de câncer de mama.

É utilizado para estimar o risco de uma mulher de recorrência de


carcinoma ductal in situ (CDIS) e / ou o risco de um novo câncer invasivo se
desenvolver na mesma mama. O teste analisa a atividade de 21 genes e, em
seguida, calcula uma pontuação de recorrência número entre 0 e 100; quanto
maior a pontuação, maior o risco de recorrência. Destes dois testes, o teste Onco
type DX tem os dados mais confiáveis, justificando sua utilização para tomar
decisões no tratamento. Ele também é o único dos quatro testes que está
incluído nas diretrizes de tratamento NCCN e ASCO.18

Outro importante avanço, foi alcançado pelos cientistas brasileiros, é um


biossensor para diagnóstico do câncer foi desenvolvido por um grupo de estudos
composto por profissionais do Laboratório de imunopatologia Keizo Asami (LIKA)
e do C.E.S.A.R (Centro de estudos e Sistemas Avançados do recife), o projeto
usa conhecimentos nos campos de biologia sintética e robótica.

Os primeiros testes foram feitos no segundo semestre de 2014, no recife.


Esse dispositivo é capaz de gerar um sinal mensurável, que identifica no
paciente um marcador ativo do câncer. Fazendo com que o tratamento tenha
inicio antes mesmo que o primeiro sinal papável apareça, consequentemente
terão um resultado mais rápido e eficaz. Além de automatizar, com técnicas de
robótica o aparelho que realiza o exame, acelerando o procedimento, tornando
os resultados mais eficazes. Diminuindo os índices de falsos negativos que os
métodos tradicionais ainda podem gerar.

Os testes em humano teve início em agosto de 2014, no Hospital Barão


de Lucena, no recife (PE). A experiência contará com a participação de pacientes
já diagnosticados, de pessoas que possuem históricos cancerígenos na família
e também quem não apresenta nenhum sintoma.

45
REFERÊNCIAS BIBLIOGRÁFICAS

ANDERSON, K.E., CONNEY, A.H., KAPPAS, A. Nutrition and oxidative drug


metabolism in man: relative influence of dietary lipids, carbohydrate, and protein.
Clinical Pharmacology and Therapeutics, St. Louis MO, v.26, n.4, 493-501, 1979.

BARREIRO, E.J., FRAGA, C.A.M. Química medicinal: as bases moleculares da


ação dos fármacos. Porto Alegre : Artmed, 2001. 243p.

BASILE, A.C. Implicações clínicas das interferências alimento-medicamento-


alimento na geriatria. Folha Médica, Rio de Janeiro, v.97, n.3, p.187-193, 1988.

BASILE, A.C. Fármaco e alimentos. In: SEIZI-OGA, I., AULUS, C.B. (Ed.).
Medicamentos e suas interações. São Paulo : Atheneu, 1994. p.157-188.

CHEN, L.H., LIU, S., COOK NEWELL, M.E., BARNES, K. Survey of drug use by
the elderly and possible impact of drugs on nutritional status. Drug-Nutrition.
Interaction, New York, v.3, n.2, p.73-86, 1985.

CLARK, J.H., RUSSEL,G.J., FITZGERALD, J.F., NAGAMORI, K.E. Serum beta-


carotene, retinol, and alpha-tocopherol levels during mineral oil therapy for
constipation. American Journal of Diseases of Children, Chicago, v.141, n.11,
p.1210-1212, 1987.

DUPUIS, L.L., KOREN, G., SILVERMAN, E.D., LAXER, R.M. Influence of food
on the bioavailability of oral methotrexate in children. Journal of Rheumatology,
Toronto, v.22, n.8, p.1570-1573, 1995.

DUVOISIN, R.C., SAGE, J. Parkinson's Disease: a guide for patient and family.
4.ed. Philadelphia : Lippincott-Raven, 1996.

FLEISHER, D., CHENG, L., ZHOU, Y., PAO, L.H., KARIM, A. Drug, meal and
formulation interaction influencing drug absorption after oral administration:
clinical implication. Clinical Pharmacokinetics, Auckland, v.36, n.3, p.233-254,
1999.

46
FLODIM, N.W. Micronutrient supplements: toxicity and drug interactions.
Progress in Food and Nutrition Science, Oxford, v.14, n.4, p.277-331, 1990.

GIL ESPARZA, A.M. Interacciones alimento-medicamento y autocuidado.


Alimentaria, v.35, n.282, p.19-25, 1997.

GUYTON, A.C. Tratado de fisiologia médica. 8.ed. Rio de Janeiro : Guanabara


Koogan, 1992. 862p.

HALSAS, M., HIETALA, J., VESKI, P., JURJENSON, H., MARVOLA, M. Morning
versus evening dosing of ibuprofen using conventional and time-controlled
release formulations. International Journal of Pharmaceutics, Amsterdam, v.189,
n.2, p.179-185, 1999.

HAMAGUCHI, T., SHINKUMA, D., IRIE, T. Effect of a high-fat meal on the


bioavailability of fenitoína in a commercial powder with a large particle size.
International Journal of Clinical Pharmacology, Therapy, and Toxicology,
Munchen, v.31, n.7, p.326-330, 1993.

HARRISON, L.I., RIEDEL, D.J., ARMSTRONG, K.E., GOLDLUST, M.B.,


EKHOLM, B.P. Effect of food on salsalate absorption. Therapeutic Drug
Monitoring, New York, v.14, n.2, p.87-91, 1992.

HAYES, J.R., BORZELLECA, J.F. Nutrient interaction with drugs and other
xenobiotics. Journal of the American Dietetic Association, Chicago, v.85, n.3,
p.335-339, 1985.

HOYUMPA, A.M., SCHENKER, S. Major drug interactions: effect of liver disease,


alcohol, and malnutrition. Annual Review of Medicine, Palo Alto, v.33, p.113-149,
1982.

INSOGNA, K.L., BORDLEY, D.R., CARO, J.E., LOCKWOOD, D.H.


Osteomalacia and weakness from excessive antacid ingestion. JAMA, Chicago,
v.244, n.22, p.2544-2546, 1980.

47

You might also like