You are on page 1of 54

07/03/2019 A evolução dos smartphones - parte 1 - Hardware.com.

br

A evolução dos smartphones - parte 1


Introdução
 Por Luciano Lourenço  maio 10, 2012  TUTORIAIS

Compartilhe Tweet Google+ +

Introdução

PRÓXIMO: A era Symbian

Embora alguns ainda considerem os PCs e os Macs como as únicas arquiteturas de


computadores pessoais, considerando todas as outras classes de dispositivos como meros
acessórios, a opinião predominante é que tanto os tablets quanto os smartphones também
podem ser considerados computadores por seu próprio mérito. Quanto adotamos essa
nomenclatura, chegamos logo à conclusão de que, coletivamente, os smartphones e tablets
já são a classe de computadores mais comuns hoje em dia, superando as vendas
combinadas de PCs e notebooks. Mesmo em relação à configuração de hardware, as
diferenças estão sendo reduzidas a cada geração, com os smartphones e tablets trazendo
processadores dual-core ou quad-core com clocks acima de 1.0 GHz, 1 GB ou mais de
memória RAM, unidades de armazenamento de estado sólido, telas de 800×480, 1280×720,
ou mesmo 2048×1536 no caso do iPad 3.
Um bom exemplo é o Samsung Galaxy S III, que oferece 1 GB de RAM, tela de 1280×720 e
até 96 GB de armazenamento de estado sólido (até 64 GB integrados e mais 32 GB no
cartão), especificações que lembram muito as de um notebook low-end. Ele é baseado no
Exynos 4 Quad, um SoC que oferece 4 núcleos Cortex A9 operando a 1.4 GHz e uma GPU
Mali400MP4, com um poder de processamento que é, novamente, competitivo em relação
a muitos processadores móveis para PCs.

Diferente de SoCs móveis antigos, que estavam sempre duas ou três gerações atrasados
em relação à técnica de fabricação, o Exynos 4 é produzido em uma técnica de 32nm com
HK+MG, bem similar à técnica usada pela Intel na produção do Sandy Bridge.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/ 1/3
07/03/2019 A evolução dos smartphones - parte 1 - Hardware.com.br

As principais diferenças por enquanto é que os PCs continuam sendo baseados na


plataforma x86, rodando Windows ou distribuições Linux desktop, enquanto os
smartphones e tablets usam processadores ARM e rodam sistemas móveis como o iOS e o
Android. Outro fator é que os PCs são usados predominantemente para a produção de
conteúdo e atividades profissionais, enquanto os smartphones e tablets são usados
predominantemente para comunicação e consumo de mídia.

Entretanto, mesmo essas diferenças fundamentais estão caindo por terra com a entrada do
Atom Medfield e sucessores, que estão levando o x86 aos tablets e smartphones, a
introdução do Windows 8 e dos aplicativos Metro, que permitem que as duas classes rodem
os mesmos aplicativos e a introdução do Ubuntu for Android e dos tablets com teclado
como o Asus Transformer, que novamente invadem o território dos PCs, possibilitando usar
estes dispositivos também para a produção de conteúdo. A partir de 2013 teremos também
a entrada de muitos notebooks com telas touch-screen e designs conversíveis (ou com
teclados destacáveis) que também invadirão o território dos tablets. Em outras palavras, a
linha divisória tende a se tornar cada vez mais tênue com o tempo.

Já que eles vieram para ficar, vamos aproveitar para falar um pouco sobre a evolução dos
smartphones e tablets, bem como sobre os processadores ARM, que com sua arquitetura
de baixo consumo permitiram que essa revolução acontecesse.

A história dos smartphones pode ser traçada até a década de 70, quando o surgimento dos
primeiros microchips possibilitou o surgimento dos organizadores pessoais de bolso, como
as agendas eletrônicas. No início eles eram dispositivos muito simples, que permitiam
apenas armazenar números de telefone e fazer anotações curtas, mas com o tempo eles
foram ganhando mais funções. Eventualmente surgiram os PDAs, como o Palm Pilot e o
Psion, bem como os aparelhos com o Windows CE, que além de trazerem mais recursos e
poder de processamento, rodavam sistemas operacionais completos e permitiam a
instalação e o desenvolvimento de aplicativos, o que permitia classificá-los como
computadores e bolso. Com a ajuda de um modem discado, era possível até mesmo
conectá-los na Internet, baixar e-mails e navegar, embora na grande maioria dos casos eles
fossem usados offline, para tarefas diversas, agenda e edição de documentos, geralmente
sincronizados via cabo com aplicativos no PC.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/ 2/3
07/03/2019 A evolução dos smartphones - parte 1 - Hardware.com.br

Com a popularização da Internet e das diferentes modalidades de acesso móvel, os PDAs


saíram de moda, pois os celulares passaram a oferecer muitas das funções de agenda e
gerenciamento pessoal que eles ofereciam e as maioria das tarefas além disso
demandavam acesso à web. Tínhamos uma situação em que os PDAs tinham os aplicativos
e poder de processamento que os celulares precisavam e os celulares tinham a
conectividade que faltava nos PDAs. Não demorou até que os fabricantes percebessem que
o ideal seria juntar os dois no mesmo dispositivo, dando origem aos smartphones.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/ 3/3
07/03/2019 A era Symbian - Hardware.com.br

A evolução dos smartphones - parte 1


A era Symbian
 Por Luciano Lourenço  maio 10, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: Introdução

A era Symbian

PRÓXIMO: ARM 9 e ARM 11

O primeiro sistema a fazer sucesso nesse novo mercado


foi o Palm OS, mas ele foi rapidamente substituído pelo
Symbian, descendente do velho EPOC que equipava os
organizadores da Psion, que encontrou um terreno fértil dentro da Nokia, que era na época
a força dominante nos celulares. O Symbian oferecia uma combinação de recursos que
combinou muito bem com os aparelhos da época, rodando em configurações muito
modestas de hardware (processadores ARM 9 de 220 MHz ou menos, com meros 32 ou 64
MB de RAM) e se adaptando bem a aparelhos com teclado numérico e telas pequenas, com
resolução de apenas 320×240. Um bom exemplo é o velho Nokia E61, que é baseado em
um SoC ARM 9 de 220 MHz (com um segundo processador dedicado ao processamento de
sinais para o transmissor 3G), com 64 MB de RAM. Ele é um aparelho surpreendentemente
flexível para a época em que foi lançado (início de 2006), com boas opções de aplicativos de
comunicação, edição de documentos, etc.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/era-symbian.html 1/3
07/03/2019 A era Symbian - Hardware.com.br

O Symbian possuía boas ferramentas de desenvolvimento e um bom conjunto de APIs, o


que possibilitou o surgimento de um grande acervo de aplicativos. Entretanto, eles ainda
continuam sendo oferecidos através de um modelo fragmentado, com cada desenvolvedor
criando seu próprio site e sistema de distribuição e diferentes sites de download tentando
atuar como fontes centralizadas.

A época de ouro do Symbian foi durante o reinado de aparelhos como o N95 e do E71, que
levaram o sistema às massas. Embora ainda utilizassem processadores ARM 11 de baixo
clock e telas QVGA, estes modelos ofereciam um bom conjunto de funções, a ponto de
ainda continuarem a ser largamente utilizados mesmo depois a entrada de aparelhos mais
modernos no mercado. Aparelhos da geração do E71 são muito bons como comunicadores,
combinando um teclado QWERTY completo com um design compacto, enquanto aparelhos
como o N95 são fortes em relação às fotos e vídeos. Os aparelhos dessa geração oferecem
um desempenho bem melhor que os da classe do E61 devido à combinação de
processadores mais rápidos (a maioria é baseada em chips ARM11 na casa dos 330 MHz) e
melhorias no sistema operacional.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/era-symbian.html 2/3
07/03/2019 A era Symbian - Hardware.com.br

A Microsoft tentou concorrer com o Windows Mobile, sucessor do Windows CE usado nos
organizadores pessoais, mas o sistema nunca foi muito popular, mal chegando a ocupar
15% do mercado. O sistema era pesado, carecia de bons aplicativos e a interface era pouco
intuitiva, parecendo mais um cruzamento do Windows 3.11 com o Palm:

O sistema conseguiu um relativo sucesso no meio empresarial, devido à boa


disponibilidade de aplicativos de uso profissional, mas nunca foi muito popular entre os
usuários finais. Eventualmente o sistema acabou sendo eliminado em favor do Windows
Phone 7 e sucessores.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/era-symbian.html 3/3
07/03/2019 ARM 9 e ARM 11 - Hardware.com.br

A evolução dos smartphones - parte 1


ARM 9 e ARM 11
 Por Luciano Lourenço  maio 10, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: A era Symbian

ARM 9 e ARM 11

PRÓXIMO: A era iPhone/Android

Algo comum nos aparelhos dessa época é o uso de chips ARM9 e


ARM11, designs bastante rudimentares em relação aos Cortex A8, A9
e A15 usados atualmente. Embora desatualizados, eles continuam a serem usados até os
dias de hoje em modelos low-end, bem com em tablets de baixo custo e em eletrônicos
diversos. Eles são processadores de 32 bits muito baratos e fáceis de programar, o que
oferece uma flexibilidade muito grande.

Os chips ARM11 oferecem um desempenho por ciclo ligeiramente superior (1.2 DMIPS por
MHz, contra 1.1 DMIPS por MHz dos ARM9), mas a grande diferença (do ponto de vista do
desempenho) entre as duas famílias reside no número de estágios de pipeline, usados no
processamento das instruções. Os chips ARM9 utilizam um pipeline de 5 estágios, enquanto
os ARM11 utilizam um pipeline de 8 estágios.

Similar ao que temos nos processadores para micros PC, o uso de mais estágios de pipeline
permite que cada estágio execute um volume menor de processamento por ciclo (ou seja,
que cada um execute um percentual menor do trabalho), o que permite que o processador
opere a uma frequência mais elevada. Uma analogia simples seria comparar com uma linha
de produção, imaginando que cada estágio de pipeline corresponde a um operário. Se o
trabalho é dividido entre um número maior de operários, cada um passa a executar um
número menor de passos e a esteira pode correr mais rápido, resultando em uma
produção maior.

Isso explica porque os chips baseados em chips ARM9 ficam restritos à casa dos 200 a 300
MHz (e são por isso usados em aparelhos mais antigos, como no caso do E61, bem como
em aparelhos muito baratos, como no caso de muitos tablets made-in-china), enquanto os
baseados em processadores ARM11 atingem frequências de 400 a 800 MHz.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/arm9-arm11.html 1/2
07/03/2019 ARM 9 e ARM 11 - Hardware.com.br

Tanto os chips ARM9 quanto os ARM11 são processadores single-issue, que são capazes de
processar uma única instrução por vez, de maneira similar aos antigos chips 486. Apesar
disso, o conjunto de instruções otimizado e as muitas outras otimizações fazem com que o
desempenho seja relativamente competitivo e existe a possibilidade de integrar
processadores de sinais e decodificadores dedicados nos SoCs, permitindo que eles
decodifiquem formatos diversos de mídia e executem outras tarefas que normalmente
exigiriam chips muito mais poderosos.

Em geral, os SoCs ARM9 e ARM11 são produzidos usando técnicas ultrapassadas de


fabricação, já que os fabricantes reservam as fábricas mais modernas para a produção de
chips mais atuais, que oferecem margens de lucro melhores. Existem casos de SoCs ARM11
produzidos usando técnicas de 65 nm, mas na maioria dos casos eles são produzidos
usando equipamentos bastante ultrapassados de 90 ou mesmo 130 nm. Ainda assim, o
consumo elétrico é bastante baixo devido à arquitetura dos chips, mas o clock e o
desempenho ficam muito longe do que seria obtido ao usar uma técnica de produção mais
atual.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/arm9-arm11.html 2/2
07/03/2019 A era iPhone/Android - Hardware.com.br

A evolução dos smartphones - parte 1


A era iPhone/Android
 Por Luciano Lourenço  maio 10, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: ARM 9 e ARM 11

A era iPhone/Android

O domínio do Symbian começou a ruir com o lançamento do iPhone em 2007, que trouxe a
combinação de um sistema operacional mais moderno com o uso de uma interface touch
baseada no uso de gestos, em um aparelho com mais recursos de hardware e uma tela
capacitiva que tornava o uso muito confortável. Embora a plataforma da Apple fosse muito
limitada no início (carecendo de recursos básios como o MMS e sequer oferecendo suporte
ao desenvolvimento nativo de aplicativos, limitando os desenvolvedores ao uso de applets
web) o iPhone fez um grande sucesso, mudando os rumos da indústria em direção às
interfaces touch e telas maiores.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/era-iphone-android.html 1/6
07/03/2019 A era iPhone/Android - Hardware.com.br

O iPhone original oferecia uma configuração de hardware relativamente modesta, com um


processador ARM11 de 412 MHz, 128 MB de RAM, câmera de 2 MP e uma tela HVGA, de
480×320. Muitas das limitações das primeiras versões do iOS surgiram exatamente da
necessidade de limitar o uso dos recursos de hardware. O sistema rodava um aplicativo de
cada vez, carregando e descarregando os aplicativos da memória conforme eles eram
abertos (o que deu origem à falta do suporte a copiar e colar) e assim por diante.
Entretanto, a boa fluidez com que o sistema rodava, combinada com a boa interface, o
excelente teclado virtual e a intuitividade do sistema e dos aplicativos rapidamente
ganharam o público, transformando a Apple em uma das maiores fabricantes de
smartphones, mesmo comercializando um único aparelho.

O lançamento do iPhone levou o Google a se interessar pelo mercado móvel, culminando


com o lançamento do Android em 2008, que surgiu com a promessa de ser um sistema
aberto, baseado em Linux, que poderia ser usado e personalizado por diversos fabricantes,
com o potencial de criar um ecossistema como temos nos PCs, onde vários fabricantes
fabricam dispositivos dentro de uma arquitetura comum, empurrando os preços para baixo
e ajudando a popularizar a plataforma. O início do Android foi tímido, focado no HTC G1 e
em outros modelos de pouca expressão. Eles eram ainda baseados em processadores
ARM11, com pouca RAM e telas sem suporte a toques múltiplos, e os layouts antiquados,
combinados com as deficiências e bugs do sistema operacional tornavam a experiência de
uso bastante deficiente.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/era-iphone-android.html 2/6
07/03/2019 A era iPhone/Android - Hardware.com.br

Apesar de tudo, o Android acabou emplacando, pois os fabricantes buscavam


desesperadamente um sistema que pudesse fazer frente ao iOS e as outras alternativas (o
Windows Mobile e o Symbian, que na época podia ser licenciado) eram muito mais
limitadas. O sistema rapidamente foi ganhando o apoio dos desenvolvedores e ganhando
em funções, chegando à maturidade no Froyo (2.2), que permaneceu por muito tempo
como a versão mais utilizada do sistema.

É bem verdade que com o tempo o Google foi lentamente apertando as amarras sobre o
Android, impondo restrições às formas como o sistema pode ser usado (em resumo, o
Android em si é aberto, mas os fabricantes precisam seguir uma série de normas e pagar
royalties para usar os aplicativos do Google, como o Gmail, Maps, etc. bem como para
incluir acesso ao Google Play), realizando a maior parte do desenvolvimento a portas
fechadas, demorando para liberar o código-fonte de novas versões, e até mesmo
comprando a Motorola, obtendo assim uma influência mais direta sobre os produtos.

A Apple por outro lado tornou o iOS um pouco mais aberto com o tempo, passando a
oferecer melhores facilidades os desenvolvedores e removendo muitas das limitações
artificiais que existiam na plataforma. De certa forma, podemos dizer que o Android
começou como um sistema aberto que com o tempo foi se tornando mais fechado,
enquanto o iOS começou como um sistema completamente fechado, que com o tempo foi
se tornando um pouco mais aberto.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/era-iphone-android.html 3/6
07/03/2019 A era iPhone/Android - Hardware.com.br

A primeira geração de aparelhos com o Android, como o HTC G1, eram muito lentos e
pouco atrativos e o sistema ainda estava longe de presentar os recursos e a variedade de
aplicativos que ele apresenta hoje. O iPhone por sua vez também seguiu um lento caminho
evolutivo, demorando a incorporar muitas funções. Isso deu um certo tempo para que a
Nokia tentasse se adaptar às novas regras. Até um certo ponto a estratégia da empresa
pareceu acertada: desenvolver uma versão touch do Symbian (o 5ed.) ao mesmo tempo em
que continuava a desenvolver o Symbian clássico (o 3ed.) para uso em dispositivos business
e nas linhas de baixo custo e que investia no desenvolvimento do Meego, um sistema de
nova geração baseado em Linux.

Os esforços em torno do Symbian deram frutos, dando uma grande sobrevida à plataforma,
que continuou sendo a mais usada até a metade de 2010 e a Nokia chegou a lançar um
aparelho com o Meego, o N9, que foi bem recebido pelo mercado, além de ter criado uma
loja centralizada de aplicativos, a Ovi Store (posteriormente renomeada para Nokia Store),
que teve uma boa adesão por parte dos desenvolvedores da plataforma.

O N9 Foi possivelmente o melhor aparelho já fabricado pela Nokia, combinando um bom


design de hardware (com um corpo bastante sólido, obtido a partir de um bloco único de
policarbonato), boas especificações (um processador ARM Cortex A8 de 1.0 GHz e GPU
PowerVR SGX530, tela AMOLED capacitiva de 854×480 e 3.9″, 1 GB de RAM), uma excelente
câmera de 8 MP e um sistema que prometia se tornar um forte concorrente ao Android e
iOS. Ele sucedeu o N900, outro bom aparelho, que se tornou o favorito entre os geeks e
hackers, devido à grande flexibilidade e à facilidade em rodar distribuições Linux completas.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/era-iphone-android.html 4/6
07/03/2019 A era iPhone/Android - Hardware.com.br

Entretanto, a decisão abrupta de abandonar ambas as plataformas e adotar o Windows


Phone como plataforma central, um ano e meio antes de ser efetivamente capaz de colocar
produtos baseados nele no mercado fizeram com que a Nokia caísse em uma espiral
descendente.

Entre os fabricantes que adotaram o Android, a HTC dominou o mercado em um primeiro


momento, seguida pela Motorola, que teve sua época de glória com o Milestone original e
em seguida deu lugar à Samsung, que passou a dominar o mercado com os aparelhos da
linha Galaxy S.

De fato, a Samsung acabou por herdar a posição da Nokia como a maior fabricante de
celulares, ganhando em vendas tanto nos smartphones, com a linha Galaxy, quanto nos
modelos mais básicos, graças aos modelos entry-level com o Bada. Além de manter os
esforços em torno do Android e de seu próprio sistema, a Samsung também passou a
lançar alguns modelos com o Windows Phone e abraçou também o Tizen, o sistema open-
source herdeiro do Meego, que pode vir a se tornar uma quarta força no mercado de
smartphones, ao lado do Android, iOS e Windows Phone. A Samsung anda trabalhando
ativamente com os desenvolvedores, distribuindo aparelhos de referência e oferecendo
incentivos aos interessados em escrever aplicativos para a plataforma. Este da foto é o
modelo de referência para desenvolvedores, equipado com uma tela de 4.3″ e um SoC ARM
dual-core de 1.2 GHz:

A rápida evolução dos aparelhos do ponto de vista do hardware é um capítulo à parte, em


um ritmo de evolução que superou e muito a evolução dos PCs no mesmo período,

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/era-iphone-android.html 5/6
07/03/2019 A era iPhone/Android - Hardware.com.br

diminuindo a diferença entre as duas plataformas do ponto de vista do poder


computacional. Ela é o tema da segunda parte deste tutorial. 

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte1/era-iphone-android.html 6/6
07/03/2019 A evolução dos smartphones - parte 2 - Hardware.com.br

A evolução dos smartphones - parte 2


Introdução
 Por Luciano Lourenço  maio 15, 2012  TUTORIAIS

Compartilhe Tweet Google+ +

Introdução

PRÓXIMO: O degrau seguinte

A primeira parte da evolução dos smartphones foi centrada no desenvolvimento dos


softwares, com o Symbian e o Windows Mobile dando lugar ao Android, iOS e Windows
Phone. A segunda parte foi a rápida evolução do ponto de vista do hardware que tivemos a
partir de 2012, representando um ritmo de evolução que superou e muito a evolução dos
PCs no mesmo período, diminuindo a diferença entre as duas plataformas do ponto de
vista do poder computacional. Em apenas 3 anos, fomos de aparelhos com o E71, que usava
um processador ARM11 de 369 MHz e tela QVGA a aparelhos como o Galaxy S III, que usa
um SoC com 4 processadores ARM Cortex A9 operando a 1.4 GHz e uma tela HD 720, de
1280×720. Vamos a um relato dessa evolução.
O HTC G1, que pode ser considerado o modelo mais icônico de 2008, era baseado em um
SoC Qualcomm MSM7201A, equipado com um processador ARM11 de 528 MHz. Ele usava
128 MB de RAM, mas a maior parte da memória ficava ocupada pelo próprio sistema
operacional. O SoC incluía uma GPU Adreno 130, que oferecia aceleração de vídeo para o
sistema, bem como recursos 3D básicos para jogos e, assim como o iPhone, ele usava uma
tela HVGA (480×320). Assim como em outros aparelhos da primeira safra, ele ainda usava
botões via hardware e um trackball para a navegação dentro da interface, que acabou
sendo abandonado nas gerações subsequentes, já que a maioria dos usuários preferiam
usar o touchscreen.

Um exemplo de aparelho de segunda geração é o Motorola Milestone, lançado em 2009.


Ele se tornou rapidamente um dos modelos mais icônicos baseados no Android,
combinando uma bela tela capacitiva com Gorilla Glass de 854×480, um processador rápido
(para a época), câmera de 5 MP e teclado físico, tudo isso em um aparelho com apenas 13
milímetros de espessura.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/ 1/4
07/03/2019 A evolução dos smartphones - parte 2 - Hardware.com.br

Para obter o feito, eles foram obrigados a reduzir o tamanho da placa lógica (para que ela
compartilhasse o espaço com a bateria, reduzir a espessura do teclado e do mecanismo de
abertura, reduzir a espessura da tela (daí o uso do Gorilla Glass, que é mais fino e
resistente) e assim por diante. Para a época, ele foi um verdadeiro milagre da engenharia,
como ilustra essa foto do iFixit:

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/ 2/4
07/03/2019 A evolução dos smartphones - parte 2 - Hardware.com.br

Essa mesma tendência de miniaturização da placa lógica continua sendo seguida em níveis
cada vez mais extremos nos modelos atuais, onde temos quase sempre uma placa lógica
cuidadosamente desenhada, que ocupa os espaços vagos em torno da bateria, permitindo
que ela fique diretamente sob a tela. Isso permite que os fabricantes cheguem a aparelhos
com 10 mm ou menos, diferente dos 13 ou 14 mm que teríamos em um aparelho onde a
placa lógica ficasse entre a tela e a bateria, como é o caso de muitos dos modelos de baixo
custo da Nokia, entre outros. Veja o que temos no caso do Galaxy S II, por exemplo:

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/ 3/4
07/03/2019 A evolução dos smartphones - parte 2 - Hardware.com.br

De volta ao Milestone, embora a configuração do hardware parecesse satisfatória em um


primeiro momento, ela logo começou a parecer deficiente, já que outros aparelhos
passaram a vir com SoCs Cortex A8 de 1.0 GHz (contra os 550 MHz do Milestone) e com
mais memória RAM (o Milestone vem com apenas 256 MB, que resultam em apenas 68 MB
livres para executar aplicativos, o que é uma pesada limitação nas versões atuais do
Android).

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/ 4/4
07/03/2019 O degrau seguinte - Hardware.com.br

A evolução dos smartphones - parte 2


O degrau seguinte
 Por Luciano Lourenço  maio 15, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: Introdução

O degrau seguinte

PRÓXIMO: A questão das telas AMOLED

O sucessor direto foi o Motorola Milestone 2, que oferece especificações muito similares à
primeira versão versão, mantendo a mesma câmera de 5 MP e a mesma tela. As melhorias
(além de detalhes secundários, como o novo layout do teclado) se limitam ao uso de uma
versão de 45 nm do processador (operando a 1.0 GHz em vez de 550 MHz), o uso de 512
MB de RAM e a inclusão de 8 GB de memória interna, complementados pelo cartão.

Com tão poucas mudanças no hardware, as principais melhorias introduzidas pelo


Milestone 2 residiram não no aparelho propriamente dito, mas no upgrade do Android
Éclair (2.1) para o Froyo (2.2), que introduziu muitas melhorias. Este é um dos motivos da
Motorola ter atrasado a atualização do Froyo para o Milestone original, temendo que a
atualização prejudicasse as vendas do Milestone 2. Infelizmente, esta é uma prática que se
tornou norma entre os fabricantes, que passaram a atrasar os mesmo descontinuar as
atualizações do sistema para os modelos antigos, com o objetivo de impulsionarem as
vendas dos novos modelos.

Isso levou ao surgimento de inúmeros projetos de ROMs alternativas, como o


CyanogenMod (http://www.cyanogenmod.com/) que oferece a possibilidade de rodar
versões atualizadas do Android mesmo em aparelhos antigos, cujo suporte já foi
abandonado pelos fabricantes. Outro ponto positivo é o nível mínimo de personalizações
impostas pelos desenvolvedores, que se dedicam a oferecer uma versão “pura” do sistema,
sem as extensivas mudanças implementadas pelos fabricantes. Para instalar ROMs
alternativas, é preciso primeiro obter acesso de root, o que torna necessário usar exploits
diversos, que variam de aparelho para aparelho, bipassando tanto as travas do sistema,
quanto de eventuais ROMs de boot encriptadas implantadas pelos fabricantes. É por isso
que o processo nem sempre é tão simples quanto poderia. Um dos melhores locais para se
informar sobre as ferramentas de root disponíveis para o seu aparelho é o fórum do XDA-
Developers: http://www.xda-developers.com/.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/degrau-seguinte.html 1/3
07/03/2019 O degrau seguinte - Hardware.com.br

No caso do Milestone, por exemplo, é possível overclocar o processador para até 1.2 GHz,
chegando perto do desempenho do Milestone 2 sem gastar nada (embora com uma grande
redução na autonomia da bateria), bem como rodar o Gingerbread (2.3). Naturalmente, não
é possível fazer nada em relação aos 256 MB de memória, ao teclado ou aos demais fatores
estéticos, mas estas duas mudanças acompanhadas de outros tweaks são mais do que
suficientes para dar um novo folego ao Milestone, fazendo com que o aparelho obtenha
uma sobrevida inesperada.

Continuando com a linha do tempo, temos o Galaxy S I9000, que acabou se tornando o
aparelho mais icônico da safra de 2010, a ponto de o Google aproveitar o projeto no Nexus
S, que com exceção de algumas pequenas alterações (como a inclusão da tela curvada e a
remoção do suporte a cartões microSD) compartilha do mesmo projeto do I9000.

Ele é baseado no Samsung Hummingbird, um SoC de 45 nm, baseado em uma versão


modificada do Cortex A8, que é capaz de executar muitas das operações binárias mais
usadas com o uso de menos instruções, resultando em ganhos de 5 a 10% em relação ao A8
original, superando o desempenho da maioria dos outros SoCs single-core da mesma
geração por uma pequena margem, clock por clock na maioria das tarefas.

Ele também inclui uma GPU bastante poderosa para a época, a PowerVR 540, que além de
um forte desempenho 3D, suporta decodificação via hardware para a maioria dos formatos
de vídeo, suportando até mesmo vídeos 1080p (que pode ser aproveitada ao usar a porta
HDMI em dispositivos que a oferecem). Hoje em dia, decodificação 1080p via hardware é
um recurso comum, disponível até mesmo em muitos tablets baratos made-in-china, mas
na época foi uma grande evolução, já que mesmo os PCs low-end tinham dificuldade em
exibir os arquivos.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/degrau-seguinte.html 2/3
07/03/2019 O degrau seguinte - Hardware.com.br

Uma peculiaridade do I9000 é que ele oferece uma saída de vídeo analógica 720p através
do conector de áudio, utilizável através de um cabo RCA Composite com um conector de
3.5mm de um lado e as saídas RCA do outro. A versão vendida no Brasil, o I9000b oferece
um receptor de TV digital (1-Sec) compatível com o padrão nacional, com uma pequena
antena disponível ao lado do conector do fone de 3.5mm, dois recursos que também não
estão disponíveis no Nexus S.

O Galaxy S foi também um dos primeiros aparelhos a trazerem o uso de uma tela AMOLED,
substituindo o bom e velho LCD IPS que era norma até então. Em uma tela AMOLED, cada
componente de um pixel é na verdade um minúsculo LED obtido através da deposição de
um composto orgânico capaz de emitir luz. Por emitirem luz, em vez de bloquearem
seletivamente a luz do backlight como fazem os LCDs, as telas AMOLED oferecem uma
reprodução de cores muito mais fiél e níveis muito mais altos de contraste, com o preto
realmente sendo perfeitamente preto. 

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/degrau-seguinte.html 3/3
07/03/2019 A questão das telas AMOLED - Hardware.com.br

A evolução dos smartphones - parte 2


A questão das telas AMOLED
 Por Luciano Lourenço  maio 15, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: O degrau seguinte

A questão das telas AMOLED

PRÓXIMO: A safra de 2011

As telas AMOLED são também mais econômicas do ponto de vista do consumo elétrico
(uma tela AMOLED pode gastar mais energia ao exibir uma imagens predominantemente
brancas, já que nesta situação todos os sub-pixels ficam acesos, mas em situações normais
de uso elas se saem melhor, principalmente nos temas atualmente usados no Android, que
são predominantemente escuros), não possuem limitações em relação aos ângulos de visão
e, principalmente, são mais finas e leves que as telas LCD, o que permite reduzir a
espessura dos aparelhos em cerca de 1 mm e reduzir o peso em de 10 a 20 gramas. Isso é
intensificado no Super AMOLED, onde a camada sensível ao toque é produzida diretamente
sobre a tela, em vez de ser um componente separado como tradicionalmente.

Um bom exemplo da questão do peso é o Nexus S, que foi lançado em duas versões, com
tela AMOLED e Super LCD. Embora as duas versões compartilhassem a mesma carcaça e
por isso tivessem a mesma espessura, a versão Super LCD pesava 140 gramas, enquanto a
versão AMOLED pesava apenas 129 gramas.

Embora do ponto de vista técnico as telas AMOLED tenham muitas vantagens, a


implementação adotada pela maioria dos fabricantes adota layouts pentile RGBG, em vez
do tradicional RGB-RGB do LCD. Com isso, cada pixel possui apenas dois sub-pixels em vez
de três sub-pixels como de praxe:

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/questao-das-telas-amoled.html 1/3
07/03/2019 A questão das telas AMOLED - Hardware.com.br

Nesse layout, temos intercalados pixels verde/vermelho com verde/azul, em vez de pixels
“completos”, com verde, vermelho e azul. O software controla cuidadosamente a
luminosidade individual dos sub-pixels, de forma a obter as cores desejadas, resultando em
um resultado satisfatório a média distância. Entretanto, sempre que você olha perto o
suficiente para ver os pixels individuais da tela, você percebe que as cores dos pixels ficam
embaralhadas e as margens das fontes pouco nítidas, já que, ao exibir um fundo branco,
cada par de pixels se funde na prática em um pixel branco e um verde:

LCD IPS (RGB-RGB)

AMOLED pentile (RGBG)

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/questao-das-telas-amoled.html 2/3
07/03/2019 A questão das telas AMOLED - Hardware.com.br

Se você tiver a oportunidade de comparar lado a lado dois dispositivos, com telas LCD e
AMOLED pentile de mesmo tamanho e resolução, vai notar que a tela LCD apresenta uma
nitidez bem superior quando olhada de perto, o que não é de se admirar, já que ela
realmente possui um número 50% superior de sub-pixels. A grosso modo, podemos dizer
que uma tela AMOLED pentile se comporta na prática como uma tela LCD que tivesse
apenas metade da resolução vertical. Em outras palavras, os ganhos em termos de
reprodução de cores e contraste vêm ao custo de uma redução na nitidez.

Tipicamente, os fabricantes adotam o layout pentile devido à dificuldade em produzir telas


OLED de PPI muito alto usando a tecnologia atual. Reduzindo o número de sub-pixels, o
problema é amenizado, já que precisam incluir apenas 2/3 dos sub-pixels que seriam
necessários em um layout RGB. Isso explica também o porquê de alguns aparelhos, com
telas maiores, como o Galaxy S II (que adota uma tela AMOLED de 4.3″ e 800×480) usarem
telas RGB em vez do pentile, já que o DPI mais baixo permite incluir os sub-pixels
necessários.

Duas outras razões por trás da preferência é que as telas pentile oferecem um consumo
elétrico mais baixo (já que temos menos pontos luminosos na tela) e que o uso do pentile
ajuda a aumentar a longevidade relativa da tela, já que as telas AMOLED possuem uma vida
útil relativamente curta e os sub-pixels azuis são os primeiros a se degradarem. O uso do
layout pentile torna os artefatos visuais introduzidos pela degradação dos sub-pixels azuis
menos pronunciável, permitindo que a tela possa ser usada confortavelmente por mais
tempo.

Tipicamente, displays AMOLED oferecem uma vida útil de cerca de 14.000 horas, um valor
que vem aumentando ao longo do tempo. A longevidade é ainda um problema para o uso
em TVs e monitores, que tendem a ficar ligados continuamente, mas não é considerado
uma questão muito importante nos smartphones, que geralmente ficam com a tela ligada
apenas alguns minutos por vez. Geralmente, outros defeitos (como problemas no touch-
screen, nos circuitos de alimentação, na placa lógica ou danos físicos) acabam fazendo com
que os aparelhos sejam aposentados antes que a tela tenha tido a oportunidade de esgotar
sua vida útil.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/questao-das-telas-amoled.html 3/3
07/03/2019 A safra de 2011 - Hardware.com.br

A evolução dos smartphones - parte 2


A safra de 2011
 Por Luciano Lourenço  maio 15, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: A questão das telas


AMOLED

A safra de 2011

PRÓXIMO: Telas grandes e chips quad-core

Continuando a saga, temos o Galaxy S II (I9100), sucessor direto do I9000, que se tornou o
aparelho mais popular dentro da safra de 2011. Ele é baseado no Exynos 4210, um SoC que
combina dois processadores Cortex-A9 operando a 1.2 GHz com uma GPU Mali400MP, que
atualmente já pode ser encontrada em diversos aparelhos, mas que na época do
lançamento era a mais rápida entre os smartphones, perdendo apenas para a GPU do iPad
2, que por trabalhar em uma faixa de consumo muito mais alta, estava em outra categoria
de desempenho. Ele foi também um dos aparelhos a usar 1 GB de RAM, que acabaram se
tornando norma daí em diante.

Como o Android mantém todos os aplicativos recentemente abertos na memória RAM, o


uso de mais memória acaba resultando em uma pequena redução no consumo elétrico, já
que o sistema não precisa mais fechar e abrir aplicativos como faria normalmente,
passando a simplesmente mantê-los em estado de hibernação, onde continuam carregados
na memória, mas não consomem processamento. Para quem gosta de fuçar, mais memória
é também uma boa notícia, já que abre as portas para rodar distribuições Linux completas
nos aparelhos onde é possível destravar o bootloader, sem falar no uso de iniciativas como
o Ubuntu for Android.

Além de marcar a transição para os SoCs dual-core, o Galaxy SII trouxe outra tendência que
inspirou outros aparelhos, que é a combinação de telas muito grandes, acima de 4
polegadas, com um layout fino, que permite que o aparelho continue fácil de carregar,
apesar das dimensões avantajadas. Graças à combinação da tela AMOLED com um corpo
plástico, o I9100 possui apenas 8.5 mm de espessura e pesa apenas 130 gramas:

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/safra-2011.html 1/4
07/03/2019 A safra de 2011 - Hardware.com.br

Aparelhos com telas tão grandes acabam sendo um pouco desconfortáveis para chamadas
telefônicas, mas a tela torna o uso para navegação, redes sociais, leitura, mídia e jogos bem
mais confortável, mostrando outra tendência, que é o fato de cada vez mais usuários
priorizarem estas atividades em detrimento das velhas chamadas telefônicas, que estão
perdendo espaço para o uso das redes sociais e mensagens de texto.

Apesar de adotar uma tela AMOLED, o Galaxy S II não sofre do problema da perde de
nitidez, já que o aumento no tamanho da tela permitiu que a Samsung adotasse um layout
RGB-RGB em vez do pentile (tecnologia batizada de Super AMOLED Plus pela Samsung),
chegando a uma tela AMOLED que oferece apenas vantagens em relação ao LCD. Olhando
a tela em um microscópio você pode notar a familiar disposição de sub-pixels vermelhos,
azuis e verdes:

A maior densidade dos sub-pixels também faz com que a tela do S II seja mais luminosa que
uma tela AMOLED pentile típica, o que permite usar a tela bem mais confortavelmente sob
o sol. Por outro lado, a tela também consome mais energia limitando um pouco a
autonomia.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/safra-2011.html 2/4
07/03/2019 A safra de 2011 - Hardware.com.br

Embora tenha abandonado o uso da saída de vídeo analógica através do conector de som,
o I9100 oferece uma saída MHL, que combina o conector micro-USB com uma saída de
vídeo digital com suporte a 1080p. O MHL é um padrão criado por um consórcio de
fabricantes, que passou a ser usado em grande parte dos aparelhos lançados a partir de
então.

Além da aplicação óbvia de usar o telefone para exibir vídeos HDs na TV, a saída digital abre
também as portas para usar o telefone como um substituto de emergência para um
desktop, combinando a TV com um teclado e mouse bluetooth. O Android 4 oferece
suporte nativo ao uso do mouse e as teclas de atalho do Android (home, menu, etc.) são
mapeadas para teclas do teclado físico, permitindo que você efetivamente use todas as
funções da interface sem precisar tocar na tela.

O MHL utiliza a mesma sinalização do HDMI, o que torna os dois padrões diretamente
compatíveis, ao mesmo tempo em que permite que o aparelho seja carregado enquanto
transmite o sinal de vídeo. TVs com suporte ao MHL podem ser conectadas ao telefone
diretamente, usando um cabo adaptador simples, porém ao usar uma TV sem suporte ao
padrão você precisa de um cabo especial, que combina a saída HDMI com um conector
micro-USB fêmea, que permite conectar um carregador externo. Inicialmente eles eram
relativamente caros, mas atualmente existem várias opções de cabos alternativos com
preços baixos:

O sistema completo inclui também o uso de um controle-remoto HDMI-CEC para controlar


a interface do telefone enquanto ele reproduz, sem que você precise ficar com ele na mão
ou levantar do sofá para pausar o filme, por exemplo. Entretanto, ainda não existe
interoperabilidade entre os fabricantes, de forma que por enquanto o controle HDMI-CEC

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/safra-2011.html 3/4
07/03/2019 A safra de 2011 - Hardware.com.br

de uma TV da Samsung vai funcionar apenas com um telefone da Samsung, um da Sony


funcionara apenas com um telefone da Sony e assim por diante.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/safra-2011.html 4/4
07/03/2019 Telas grandes e chips quad-core - Hardware.com.br

A evolução dos smartphones - parte 2


Telas grandes e chips quad-core
 Por Luciano Lourenço  maio 15, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: A safra de 2011

Telas grandes e chips quad-core

Continuando, o Galaxy Nexus marcou a terceira geração dentro da linha de aparelhos do


Google. Assim como nos modelos anteriores, ele é conservador em relação ao hardware,
com um SoC dual-core de 1.2 GHz e 1 GB de RAM. Apesar disso, ele introduziu uma série de
mudanças que ditaram novos rumos para a plataforma.

A principal delas é a adoção de uma tela AMOLED de 4.65″ com resolução de 1280×720
(720p, com proporção 16:9), que ocupa toda a parte frontal do aparelho, eliminando o
espaço dos botões capacitivos, que passaram a ser exibidos em uma barra na base da tela.
Este layout permite tornar os aparelhos um pouco mais compactos, mas em troca sacrifica
parte do espaço útil da tela, além de aumentar a possibilidade de os botões pararem de
funcionar devido a panes e bugs do sistema, forçando um reset. Embora seja a visão do
Google para o futuro do sistema, o uso dos botões virtuais por parte dos fabricantes é
opcional:

Embora inclua uma câmera de apenas 5 MP, o Galaxy Nexus é capaz de gravar vídeos a
1080p. Na verdade, o suporte à gravação de vídeos full-HD depende mais do poder de

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/telas-grandes-chips-quad-core.html 1/3
07/03/2019 Telas grandes e chips quad-core - Hardware.com.br

processamento do SoC usado do que da câmera, já que os 1920×1080 equivalem a apenas


2 MP, que são supridos com facilidade por qualquer câmera atual. A parte complicada fica
por conta do SoC, que precisa processar e codificar os dados brutos capturados com a
câmera, gerando um arquivo comprimido a uma razão de 24 a 30 quadros por segundo.
Apenas recentemente os SoCs passaram a incluir o poder de fogo necessário, mas esta
acabou sendo mais uma mudança abrupta, que passou a ser oferecida por quase todos os
aparelhos high-end lançados a partir daí.

O Galaxy Nexus introduziu também suporte ao NFC, uma solução para transmissão de
dados a curtas distâncias que permite que o telefone seja usado para realizar pequenos
pagamentos em equipamentos compatíveis. O Google têm interesse em entrar no mercado
de pagamentos, por isso está investindo pesado no NFC, mas a adoção ou não do padrão
depende de uma série de ouros fatores, incluindo o interesse do público e das instituições
financeiras.

Concluindo, temos o Galaxy S III, o primeiro smartphone a vir com um SoC quad-core, que
tende a se tornar norma nos aparelhos high-end lançados a partir dele. Ele também
incorpora várias das tendências dos aparelhos com o Android em geral, como a transição
da tela de 800×600 para a de 1280×720, telas com bezel mais fino para aumentar o
tamanho da tela sem aumentar muito as dimensões do aparelho. Apesar de rodar o
Android 4.0, assim como o Galaxy Nexus, ele mantém o uso do botão home via hardware e
dos botões menu e voltar capacitivos, assim como nas gerações anteriores:

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/telas-grandes-chips-quad-core.html 2/3
07/03/2019 Telas grandes e chips quad-core - Hardware.com.br

O Galaxy S III é baseado no Exynos 4412 Quad, que além dos 4 núcleos ARM Cortex A9,
inclui uma versão mais rápida da GPU Mali400 MP4, do Galaxy II, com um clock mais alto e
um barramento mais largo com a memória. Assim como os processadores, as GPUs móveis
têm passado por uma evolução notável nos últimos anos, não apenas oferecendo um
melhor desempenho 3D, mas também acumulando mais funções de decodificação de vídeo
e outros formatos de mídia.

Infelizmente, o aumento na resolução fez com que a Samsung voltasse a adotar um layout
pentile na tela AMOLED do Galaxy S III (SAMOLED HD, sem o “plus”), trazendo de volta o
mesmo problema de legibilidade que tínhamos no Galaxy S original. Para alguns, a tela
pode soar como um downgrade em relação ao modelo anterior, apesar do aumento na
resolução.

Em relação ao software, o Galaxy S III mantém o uso da interface TouchWiz, que inclui uma
série de mudanças incluídas pela Samsung como uma forma de diferenciar seus produtos.
No Galaxy S original, o TouchWiz deliberadamente imitava o look-and-feel do iPhone (o que
levou a uma batalha jurídica com a Apple) enquanto nas versões subsequentes ela ganhou
uma aparência mais própria. Apesar de algumas mudanças serem justificáveis, o TouchWiz
é uma camada adicional rodando sobre o Android, que consome memória e recursos do
sistema. Quem prefere a interface padrão do Android acaba migrando para o
CyanogenMod ou outras imagens alternativas. Além da Samsung, praticamente todos os
outros fabricantes aplicam personalizações sobre o Android, criando uma fragmentação
artificial da plataforma, embora esta prática venha decaindo nos últimos tempos. 

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte2/telas-grandes-chips-quad-core.html 3/3
07/03/2019 A evolução dos smartphones - parte 3 - Hardware.com.br

A evolução dos smartphones - parte 3


Introdução
 Por Luciano Lourenço  maio 22, 2012  TUTORIAIS

Compartilhe Tweet Google+ +

Introdução

PRÓXIMO: Usando o Cortex A8 na prática

Depois de falar sobre os aparelhos e sobre a evolução dos sistemas operacionais, falta falar
mais sobre a evolução da arquitetura dos chips ARM, bem como dos SoCs, que são o
coração que qualquer smartphone ou tablet que você possa encontrar no mercado. O nível
de integração obtido nos SoCs atuais é um verdadeiro milagre da engenharia por seu
próprio mérito e é a chave para a eficiência energética dos aparelhos atuais. Ela é também o
principal motivo de a Intel ter demorado tanto tempo para conseguir entrar no mercado
móvel, já que embora tivesse o Atom já há vários anos, só recentemente foram capazes de
integrar os demais componentes, criando um SoC competitivo, como o Medfield. Vamos a
eles:

Se o ARM11 é similar ao 486 em arquitetura, oferecendo uma única unidade de execução,


com o processamento de instruções em ordem, o Cortex A8 lembra um pouco a
arquitetura do Pentium, sendo um processador dual-issue (duas unidades de execução),
que processa instruções em ordem (assim como o Intel Atom) e inclui um cache L1 de 64
KB, dividido em dois blocos de 32 KB (dados e instruções). Ele inclui também um grande (do
ponto de vista de um chip para sistemas embarcados) cache L2 de 256 KB, que pode ser
expandido para até 1 MB de acordo com o nível de desempenho desejado pelo fabricante.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/ 1/3
07/03/2019 A evolução dos smartphones - parte 3 - Hardware.com.br

Na verdade (assim como outros chips ARM), o Cortex A8 é apenas um projeto de chip, que é
licenciado pela ARM pra diferentes fabricantes, que se encarregam da produção e têm
liberdade para realizar mudanças no projeto, incluindo desde pequenas modificações,
como uma quantidade maior de cache L2, por exemplo, até modificações mais profundas
na forma como o processador executa instruções, o que acaba levando a diferenças de
desempenho nos diferentes SoCs equipados com o mesmo chip. Alguns fabricantes, como a
nVidia e a Texas Instruments costumam preservar o projeto básico do chip, tentando
diferenciar seus SoCs com base no chipset de vídeo e outros componentes integrados,
enquanto outros, como a Samsung e a Qualcomm são mais ávidos por implantar
modificações nos chips que possam oferecer algum benefício competitivo. Em geral essas
modificações resultam em ganhos pequenos de desempenho, na casa dos 3 a 10%, com o
desempenho bruto continuando a depender mais da frequência de clock e dos caches.

O Cortex A8 incorporou também um pipeline de 13 estágios (contra os 8 estágios do


ARM11), o que possibilita o uso de frequências de operação muito mais altas. Os primeiros
SoCs baseados nele foram produzidos usando uma técnica de 65 nm (como os usados no
iPhone 3GS e no Nokia N900, bem como o do Milestone original) e operavam na casa dos
600 MHz, mas estes chips suportam bons overclocks, podendo em muitos casos operar
https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/ 2/3
07/03/2019 A evolução dos smartphones - parte 3 - Hardware.com.br

estavelmente a 1.0 GHz ou mais, como no caso do TI OMAP 3430, usado no Milestone.
Entretanto, a frequências tão altas o consumo do chip cresce bastante, comprometendo a
autonomia da bateria. Assim como temos no caso dos chips ULV para notebooks, a
frequência de operação dos SoCs ARM é geralmente limitada pelo envelope de consumo
desejado pela fabricante, e não pelo que o chips realmente podem oferecer.

A grande vantagem do Cortex A8 sobre o ARM11 é o desempenho. Além de oferecer um


desempenho bruto por clock duas vezes superior (até 2 DMIPS por MHz, contra apenas 1 a
1.1 DMIPS por MHz no ARM 11), ele é capaz de operar a frequências mais altas, o que faz
com que o desempenho da maioria dos SOCs seja pelo menos duas vezes superior ao dos
chips da geração anterior. O Cortex A8 inclui também um coprocessador aritmético, o
VFPv3 (embora o uso por parte dos fabricantes não seja obrigatório) e suporte ao NEON,
um conjunto de instruções SIMD nos mesmos moldes do 3D-Now e do SSE.

A grosso modo, poderíamos comparar o ARM11 com o 486 (que processava uma instrução
por ciclo e estacionou na casa dos 100 MHz) e o Cortex A8 com o Pentium (que processava
duas instruções por ciclo e chegou aos 200 MHz). É possível também traçar um paralelo
com o Atom, que (sendo baseado na arquitetura do Pentium 1) também processa duas
instruções por ciclo e também usa um pipeline relativamente curto (para um processador
x86), com 16 estágios. 

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/ 3/3
07/03/2019 Usando o Cortex A8 na prática - Hardware.com.br

A evolução dos smartphones - parte 3


Usando o Cortex A8 na prática
 Por Luciano Lourenço  maio 22, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: Introdução

Usando o Cortex A8 na prática

PRÓXIMO: Cortex A9: a era multi-core

Um exemplo de SOC baseado no Cortex A8 é o TI


OMAP 3430, usado no Nokia N900, no Motorola
Milestone e no Palm Pre. Ele é um chip produzido
usando uma técnica de 65 nm, que inclui também uma GPU PowerVR SGX 530, um
acelerador de vídeo IVA 2+ e um chip ISP (para processamento de imagens), juntamente
com todas as interfaces de praxe:

O PowerVR SGX 530 é um chipset 3D relativamente poderoso para a época, que inclui uma
unidade programável para o processamento de shaders, batizada de USSE. Operando a 200
MHz, ele oferece um fill-rate de 250 megapixels, o que equivale à quase metade do poder

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/usando-cortex-pratica.html 1/3
07/03/2019 Usando o Cortex A8 na prática - Hardware.com.br

de processamento de uma GeForce 6200, por exemplo, porém com um consumo elétrico
ridiculamente baixo.

Ele é descendente do Kyro II, que concorreu com as GeForce 2 MX no início do milênio e,
assim como ele, faz uso do tile-based rendering, para minimizar o uso de processamento e
texturas, renderizando apenas os polígonos visíveis dentro de cada frame. Embora a
arquitetura não tenha feito muito sucesso nos PCs (onde perdeu para a força bruta das
GPUs da nVidia e da ATI), o Power SGX acabou encontrando um bom nicho nos dispositivos
móveis, onde o bom nível de eficiência oferece a possibilidade de desenvolver títulos 3D
com gráficos complexos sem comprometer a autonomia das baterias. Um bom exemplo
são os jogos 3D do iPhone 3GS, que também é baseado nele.

O Cortex A8 é eficiente também na decodificação de vídeos. Ele é capaz de decodificar


vídeos VGA codificados em H.264 operando a apenas 350 MHz. No caso do TI OMAP 3430
ele faz par com um chip acelerador IVA 2+, que é capaz de decodificar vídeos H.264 ou
MPEG4 a 720×480 e 25 a 30 FPS (qualidade de DVD), o que não apenas tornou possível
assistir vídeos não-HD sem precisar primeiro convertê-los usando o PC, mas fazê-lo sem
comprometer a autonomia das baterias.

Como comentei, a primeira geração de SoCs baseados no Cortex A8 (como o TI OMAP 3440)
foram fabricados usando técnicas de 65 nm, o que já os tornava mais eficientes que os
antigos ARM11 (90 nm), demandando menos energia para executarem o mesmo volume de
operações. Entretanto, os fabricantes logo migraram para o uso de técnicas de 45 nm,
dando origem à segunda geração de chips, que inclui o TI OMAP 3640 (usado no Milestone
2) e o Samsung Hummingbird, usado no Galaxy S. Embora a primeira geração tenha
estacionado nos 600 MHz, a segunda geração foi bem mais longe, começando nos 800 MHz
e logo chegando aos 1.0, 1.2 e 1.4 GHz (como no caso do Hummingbird usado no Galaxy S
L9001 plus).

O sistema de gerenciamento de energia do A8 é também mais eficiente, fazendo com que o


consumo elétrico quando o processador ocioso seja de apenas alguns miliwatts,
praticamente insignificante. O grande problema é que com um sistema mais rápido você
tende a fazer mais coisas (navegar em mais páginas, deixar mais aplicativos carregados em
segundo plano, etc.) o que faz com que no final o consumo elétrico total acabe sendo maior.
Isso explica o fato de muitos dos smartphones baseados no A8, bem como em chips mais
atuais, oferecerem uma autonomia longe do ideal, obrigando o dono a recarregar todas as
noites.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/usando-cortex-pratica.html 2/3
07/03/2019 Usando o Cortex A8 na prática - Hardware.com.br

Assim como nos PCs, o clock dos processadores móveis é limitado pelo consumo elétrico
máximo sob o qual eles devem trabalhar. Do ponto de vista da arquitetura, não seria muito
difícil produzir processadores ARM capazes de operar a 2 ou mesmo 3 GHz, o problema é
que, operando a essas frequências, o consumo ficaria acima da casa dos 5 watts, e eles
precisariam de dissipadores para funcionarem.

Devido a isso, a frequência máxima dos processadores móveis tem ficado na faixa dos 1.0 a
1.5 GHz, e isso não deve mudar muito a curto prazo. A cada nova geração, os fabricantes
arriscam um processador com clock um pouco mais alto, mas os avanços são lentos e
cautelosos.

A solução encontrada para produzir processadores mais rápidos, sem aumentar


exageradamente o consumo, foi a mesma adotada nos processadores para desktop, ou
seja, passar a desenvolver processadores com vários núcleos, em vez de aumentar
diretamente a frequência.

Ao contrário do que pode parecer à primeira vista, um processador com um único núcleo,
operando a 2.0 GHz, consome muito mais do que um processador com dois núcleos
similares operando a 1.0 GHz, pois o clock maior aumenta o gate leakege (a energia perdida
na forma de calor cada vez que um transistor muda de estado) e torna necessário aumentar
a tensão do processador. Com um sistema de gerenciamento de energia bem desenvolvido,
os núcleos adicionais consomem energia apenas quando estão sendo realmente usados, já
que o sistema pode desligá-los quando não estão em uso.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/usando-cortex-pratica.html 3/3
07/03/2019 Cortex A9: a era multi-core - Hardware.com.br

A evolução dos smartphones - parte 3


Cortex A9: a era multi-core
 Por Luciano Lourenço  maio 22, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: Usando o Cortex A8 na


prática

Cortex A9: a era multi-core

PRÓXIMO: Cortex A15: o futuro?

Em seguida temos o Cortex A9, que é uma versão multicore do A8, capaz de oferecer um
desempenho bruto superior ao de muitos processadores para PC. Além do suporte a
multiprocessamento, permitindo o desenvolvimento de SoCs com 2, 4 ou mais núcleos
(como no caso do Tegra 3, que utiliza 5 núcleos, sendo o último reservado para os estados
de baixo consumo), o Cortex A9 é o primeiro chip ARM a utilizar um design de
processamento fora de ordem, mantendo as duas unidades de execução do A8, mas agora
incluindo um ordenador de instruções, circuitos de execução especulativa e outros
componentes tipicamente encontrados nos processadores x86 modernos. Ele mantém os
64 KB de cache L1 do Cortex A8 (32 KB para dados e 32 KB para instruções), e oferece a
possibilidade de uso de 256 KB a 8 MB (a maioria dos fabricantes optam por 512 KB a 1 MB)
de cache L2, compartilhado entre todos os núcleos

A adoção do processamento fora de ordem melhorou consideravelmente o desempenho


do Cortex A9, permitindo que o chip ofereça até 2.5 DMIPS por MHz, cerca de 25% mais
desempenho bruto que um Cortex A8 do mesmo clock. O grande problema é que um
volume tão grande de circuitos adicionais, aumentou consideravelmente o desempenho do
chip, o que levou a ARM a reduzir o número de estágios de pipeline em relação ao Cortex
A8, indo de 13 para apenas 8 estágios.

Com menos estágios de pipeline, chegaram a um chip bastante eficiente, que oferece um
consumo similar, ou até mesmo um pouco inferior a um Cortex A8 do mesmo clock.
Naturalmente, combinando 2 ou 4 processadores Cortex A9 no mesmo chip chegamos a
um SoC que pode ser mais gastador, mas em uma comparação direta o Cortex A9 oferece
apenas vantagens sobre o antecessor.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/cortex-era-multi-core.html 1/5
07/03/2019 Cortex A9: a era multi-core - Hardware.com.br

Normalmente, reduzir tão dramaticamente o número de estágios de pipeline reduziria


bastante as frequências de operação suportadas, gerando um chip mais econômico, porém
incapaz de operar a frequências tão altas quanto o antecessor. A questão central é que o
clock do A8 era muito mais limitado pelo consumo do chip do que pelo número de estágios
de pipeline, de forma que ao combinar o número reduzido de estágios com novas técnicas
de produção, a ARM chegou a um chip capaz de, na prática, operar a frequências
equivalentes, ou em muitos casos até superiores à geração anterior.

Enquanto a maioria dos SoCs single-core baseados no A8 estacionaram na casa dos 600
MHz nos 65 nm e 1.2 GHz nos 45 nm, os SoCs dual-core baseados no A9 chegaram ao
mercado operando a 1.0 GHz e logo avançaram para 1.2 e 1.4 GHz, atingindo frequências
equivalentes à da geração anterior. Como um SoC Cortex A9 dual-core oferece um
desempenho bruto cerca de 2.5x superior a um Cortex A8 single-core, tivemos um ganho
notável de poder de processamento, mesmo sendo mantida a mesma técnica de
fabricação.

Um bom exemplo de SoC dual-core baseado no A9 é o nVidia Tegra 2, um SoC produzido


em uma técnica de 40 nm, que combina dois Cortex A9 com uma GPU e outros
componentes desenvolvidos pela própria nVidia:

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/cortex-era-multi-core.html 2/5
07/03/2019 Cortex A9: a era multi-core - Hardware.com.br

Você pode notar que os dois A9’s ocupam um espaço pequeno dentro do SoC, com a maior
parte do espaço sendo reservado aos caches, à GPU e o decodificador de vídeo, combinado
com outros componentes, em especial o Image Signal Processor (ISP), responsável por
processar as imagens e vídeos capturados pela câmera. Pode parecer desproporcional que
um componente relativamente simples, como o ISP consuma quase tanto espaço no SoC
quando os dois processadores, mas a verdade é que o trabalho executado por esses
componentes especializados é indispensável, primeiro pelo fato de eles executarem tarefas
que nem mesmo 4 núcleos Cortex A9 seriam capazes de realizar (devido a executarem o
trabalho diretamente via hardware, de forma muito mais eficiente do que qualquer
processador de propósito geral poderia realizar) e segundo pelo fato de eles fazerem isso
consumindo muito menos energia. Estes tantos componentes especializados são os
grandes responsáveis por termos smartphones capazes de gravar vídeos 1080p e exibi-los
através da porta HDMI, bem como rodar jogos 3D com gráficos avançados, mas em
compensação pagamos por eles na forma de espaço ocupado dentro do SoC.

Assim como outros SoCs atuais, o Tegra 2 é construído em duas etapas. Na primeira etapa
são produzidos apenas os dois núcleos Cortex A9 usando uma técnica de produção de uso
geral (G), que permite construir transistores de chaveamento rápido mas que em troca
resulta em componentes que consomem muita energia. Todo o restante do SoC, incluindo a
GPU e os componentes dedicados são produzidos usando uma técnica de baixo consumo
(LP), que resulta em transistores bem mais econômicos, mas que possuem um
chaveamento muito mais lento. Como resultado, temos os dos processadores operando a
1.0 GHz e todo o restante do chip, incluindo a GPU, operando a apenas 300 MHz, o que
permite manter o consumo total do SoC sob controle, apesar de todas as funções
oferecidas.

Continuando, logo surgiram também SoCs quad-core, como o Exynos quad e o Tegra 3, que
dobraram o poder bruto de processamento, em troca de uma pequena redução na
frequência de clock. Assim como nos chips para desktops, a migração dos 2 para 4 núcleos
nem sempre é sentida muito diretamente, dependendo da otimização dos softwares e de
otimizações por parte do sistema operacional. De uma forma geral, sente-se um ganho de
responsividade mais direto nos aparelhos com o Android, já que ao contrário do iOS o
sistema não prioriza muito diretamente o processamento da interface, fazendo com que o
sistema pareça lento e irresponsível quando outras tarefas estão sendo executadas em
segundo plano. Com 4 núcleos, isso acontece bem mais raramente.

Exemplos de SoCs quad-core baseados no Cortex A9 são o Tegra 3 (produzido numa técnica
de 40 nm) e o Exynos 4412 Quad, produzido usando uma técnica de 32 nm.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/cortex-era-multi-core.html 3/5
07/03/2019 Cortex A9: a era multi-core - Hardware.com.br

O Tegra 3 utiliza um layout peculiar, incluindo um quinto núcleo, produzido usando


transistores de chaveamento lento, que opera a um clock mais baixo que os demais
(consumindo muito menos energia) e é usado como um chip de stand-by, ficando ativo
apenas em situações de baixa demanda, onde os outros 4 núcleos ficam desativados:

Os 5 núcleos são os blocos mais claros, destacados no centro da imagem. Veja que mesmo
combinados os núcleos não representam uma parcela muito grande do SoC, com a maior
parte do espaço continuando a ser ocupado pelos demais componentes. Na verdade, incluir
4 ou 8 ou 16 núcleos no mesmo SoC não é um desafio técnico muito grande. A grande
dificuldade é como fazer isso mantendo todos os outros componentes e sem acabar com
um SoC gastador demais para qualquer uso prático em mãos.

Colocar um processador com 4 núcleos em um smartphone ou outros aparelhos, cujo


consumo elétrico é severamente limitado pela bateria, pode parecer uma ideia bastante
questionável à primeira vista, mas, na prática, não é tão ruim assim. A principal questão é
que, assim como outros processadores ARM, o A9 inclui um sistema de gerenciamento de
energia bastante eficiente, que permite que o processador seja capaz de ativar e desativar
as unidades de execução de acordo com a demanda. A frequência de operação de cada um
dos núcleos pode também ser ajustada conforme o volume de carga, de forma que, na
prática, o consumo elétrico do SoC pode ser ajustado de maneira bastante eficiente, de
acordo com o uso. Em um projeto bem desenvolvido, o SoC ficaria com apenas um dos

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/cortex-era-multi-core.html 4/5
07/03/2019 Cortex A9: a era multi-core - Hardware.com.br

núcleos ativado na maior parte do tempo, com os outros sendo ativados apenas quando
vários aplicativos fossem usados simultaneamente, ou em tarefas específicas, como em
jogos capazes de tirar proveito dos vários núcleos.

A principal vantagem de um aparelho com vários núcleos, é a possibilidade de realizar mais


do que uma tarefa sem que ele engasgue. Você poderia chavear para o navegador para
verificar alguma coisa rápida, sem que o som do vídeo que estava assistindo (e que
continua sendo processado em segundo plano) comece a engasgar enquanto o navegador
monta as páginas, por exemplo.

Teoricamente, algumas tarefas podem ser executadas usando menos energia em um


processador com vários núcleos, já que um processador com 4 núcleos operando a 1.0 GHz
pode utilizar uma tensão mais baixa e, assim, consumir menos energia que um processador
com apenas um núcleo operando a 2.0 GHz, por exemplo. Naturalmente, o inverso também
pode ocorrer, já que bugs e softwares em loop podem fazer com que os 4 cores passem a
operar na frequência máxima, acabando rapidamente com a carga da bateria. Todos estes
fatores acentuam a necessidade de fazer um projeto bem feito. 

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/cortex-era-multi-core.html 5/5
07/03/2019 Cortex A15: o futuro? - Hardware.com.br

A evolução dos smartphones - parte 3


Cortex A15: o futuro?
 Por Luciano Lourenço  maio 22, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: Cortex A9: a era multi-


core

Cortex A15: o futuro?

PRÓXIMO: Cortex A5

 Concluindo, temos o Cortex A15, que representa a geração seguinte. Para quem
costumava relacionar os chips ARM à arquitetura simples dos ARM9 e ARM11, o Cortex A15
pode ser um choque, já que ele é um chip consideravelmente mais complexo que os
anteriores, se parecendo muito mais com chips x86 contemporâneos, como o Barcelona e o
Sandy Bridge do que com o design simples do ARM11.

O Cortex A15 implementa uma arquitetura superescalar, com 3 unidades de execução, com
as unidades de execução de inteiros sendo compostas por 15 estágios de pipeline e as
unidades de processamento de ponto flutuante recebendo pipelines ainda mais longos.
Acompanhando o enlargamento do chip, as unidades de branch-prediction e execução
especulativa foram ampliadas e se tornaram consideravelmente mais complexas.

O chip passou a usar o sistema LPAE para o endereçamento da memória, adotando um


sistema de endereçamento de 40 bits, que adiciona suporte a até 1 TB de memória RAM
(contra os 4 GB dos chips anteriores), e ganhou suporte ao Thumb-2, um novo conjunto de
instruções que permite reduzir o tamanho dos binários, resultando em um pequeno ganho
adicional de desempenho.

O pipeline mais longo foi adotado com o objetivo de aumentar as frequências de operação
suportadas pelo chip, permitindo que os SoCs operem na casa dos 2.0 a 2.5 GHz. O Cortex
A15 também incrementa o suporte a multiprocessamento, permitindo o desenvolvimento
de SoCs com até 8 núcleos, divididos em dois clusters com 4 núcleos cada, conectados
através de links CoreLink 400. Cada cluster pode ter até 4 MB de cache L2, compartilhados
entre todos os núcleos:

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/cortex-a15-futuro.html 1/3
07/03/2019 Cortex A15: o futuro? - Hardware.com.br

Graças às melhorias, o Cortex A15 oferece um aumento de cerca de 40% no desempenho


por núcleo em comparação com um Cortex A9 da mesma frequência. Entretanto, o chip
oferece o suporte a frequências mais altas, o que aumenta a distância. Um SoC quad-core
baseado no Cortex A15 e operando a 2.0 GHz, ofereceria um desempenho 230% superior a
um SoC Cortex A9 quad-core operando a 1.2 GHz, por exemplo.

Naturalmente, o uso de um pipeline mais longo e mais unidade de execução aumentam


consideravelmente o consumo do chip, o que tem tornado fabricantes serem bem mais
comedidos em relação ao uso de SoCs A15 em smartphones, limitando o uso em um
primeiro momento ao uso de SoCs dual-core equipados com chips auxiliares, bem como o
uso nos tablets, que são capazes de acomodar SoCs com demandas energéticas maiores.

Um bom exemplo é o OMAP 5, que combina dois chips A15 com dois núcleos ARM Cortex
M4 (que implementam um design muito simples, com um conjunto de instruções reduzido)
usados para tarefas auxiliares, como o processamento das imagens capturadas pela
câmera e processamento de áudio e video. Ele é um SoC produzido usando uma técnica
half-node de 28 nm (uma geração à frente dos SoCs Cortex A9, produzidos usando os 40
nm), com 2 MB de cache L2 e uma GPU SGX544 MP2:

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/cortex-a15-futuro.html 2/3
07/03/2019 Cortex A15: o futuro? - Hardware.com.br

O principal alvo do Cortex A15 são os tablets e outros dispositivos maiores, onde o
desempenho do chip não seja tão restrito pelo envelope térmico e a ARM possa tentar uma
batalha mais direta com os chips da Intel, possivelmente atacando até mesmo no ramo dos
notebooks. Este tipo de batalha seria impensável a poucos anos atrás, onde o lock-in em
relação aos aplicativos do Windows era mais forte, mas hoje em dia o crescimento do
Android, iOS e Linux, bem com o lançamento do Windows RT (que também roda sobre
processadores ARM) torna uma concorrência mais direta bem mais crível.

Além das mudanças na arquitetura, o A15 oferece um sistema de virtualização via


hardware. Embora também adicione algumas possibilidades interessantes em smartphones
(permitindo o uso simultâneo de dois ou mais sistemas, por exemplo) este é um recurso
mais voltado para os servidores, outro ramo onde os chips ARM têm conseguido conquistar
espaço.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/cortex-a15-futuro.html 3/3
07/03/2019 Cortex A5 - Hardware.com.br

A evolução dos smartphones - parte 3


Cortex A5
 Por Luciano Lourenço  maio 22, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: Cortex A15: o futuro?

Cortex A5

PRÓXIMO: A questão dos SoCs

No outro extremo temos o Cortex A5, o caçula da família. Como a numeração sugere, ele é
um processador de baixo custo e baixo consumo, destinado a substituir os chips ARM9 e
ARM11 nos dispositivos mais simples. Ele é destinado ao uso nos smartphones mais
baratos, bem como players de mídia e outros dispositivos mais simples.

Do ponto de vista da arquitetura, ele é basicamente uma versão reduzida do Cortex A8, que
mantém o mesmo conjunto de instruções, mas adota uma arquitetura mais simples,
baseada em uma única unidade de processamento (single-issue), com um pipeline muito
mais curto, de apenas 8 estágios. Essa mudança faz com que ele não seja capaz de atingir
frequências de clock tão altas, mas em compensação seja muito menor e ofereça um
consumo elétrico por ciclo muito mais baixo.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/cortex.html 1/3
07/03/2019 Cortex A5 - Hardware.com.br

O Cortex A5 mantém o cache L1 de 64 KB (dois blocos de 32 KB para dados e instruções),


mas abandona o uso do cache L2, já que o ganho de desempenho não compensaria o
aumento no tamanho do chip. Por ser um processador single-issue e com um pipeline
curto, o Cortex A5 não é tão dependente do cache quanto os dois irmãos mais velhos e a
ideia central da arquitetura é justamente manter a simplicidade. Vale lembrar que os
processadores ARM9 e ARM11 também não utilizam cache L2 e isso não comprometia o
desempenho.

Além de ser produzido em versões single-core, o A5 suporta também o uso de 2, 3 ou 4


núcleos (a escolha fica por conta do fabricante), o que o torna uma forte opção de
processador multicore para smartphones, já que é menor e mais econômico que o Cortex
A9.

Produzido usando uma técnica de 40 nm, cada Cortex A5 ocupa uma área de apenas 0.9
mm² (incluindo os 64 KB de cache L1), o que é menos de 4% do tamanho do Atom de 45 nm
(que já é pequeno, com seus 25 mm²). Mesmo uma versão quad-core do A5 ocuparia
apenas 6 mm² (incluindo os circuitos de apoio adicionais), o que seria ainda apenas um
quarto da área do Atom. Uma área menor significa processadores mais baratos e mais
espaço para incluir aceleradores e outros componentes diversos, resultando em SOCs mais
completos e acessíveis.

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/cortex.html 2/3
07/03/2019 A questão dos SoCs - Hardware.com.br

A evolução dos smartphones - parte 3


A questão dos SoCs
 Por Luciano Lourenço  maio 22, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: Cortex A5

A questão dos SoCs

PRÓXIMO: As GPUs móveis

 O chip ARM usado e o número de núcleos disponíveis estão longe de ser tudo o que define o
desempenho de um SoC. Assim como dois PCs baseados no mesmo processador podem
oferecer um desempenho completamente diferente devido à diferenças nos outros
componentes, SoCs de diferentes fabricantes ou de diferentes famílias podem oferecer um
desempenho muito distinto, mesmo quando baseados no mesmo processador ou GPU e
operando na mesma frequência.

A primeira questão é a memória RAM. Smartphones e tablets tipicamente usam chip LPDRR
(low power DDR) que operam de forma muito similar aos módulos para desktop, com a
diferença que operam com tensões mais baixas e por isso oferecem um consumo elétrico mais
baixo. As memórias LPDDR passaram pela mesma evolução das memórias para PC, com os
padrões LPDDR1, LPDDR2 e mais recentemente o LPDDR3 sucessivamente dobrando as taxas
de transferência em relação à geração anterior.

O TI OMAP 3640 (usado no Milestone 2), por exemplo, é apenas uma atualização direta do
antigo OMAP 3430 (usado no Milestone 1), produzido usando uma técnica de produção de 45
nm, contra os 65 nm do antecessor. Apesar de ele não trazer mudanças na arquitetura
mantendo o mesmo Cortex A8 e a mesma GPU PowerVR SGX 530, ele oferece um desempenho,
clock por clock, pelo menos 20% superior ao do chip anterior, com benchmarks que privilegiam
o desempenho 3D reportando um desempenho até 80% superior. Em outras palavras, mesmo
mantendo a mesma arquitetura, um OMAP 3640 de 1.0 GHz oferece um desempenho de 120 a
350% superior ao do OMAP 3430 de 550 MHz, mesmo que a diferença de clock entre os dois
seja de apenas 82%.

Essa enorme disparidade é explicada pelo fato de o OMAP 3430 ainda utilizar memórias
LPDDR1, o que torna o chip terrivelmente limitado pelo desempenho no acesso à memória,
enquanto o OMAP 3640 usa memórias LPDDR2, que desafogaram o processador, melhorando
o desempenho. Além de desafogar o processador, a migração para o LPDDR2 dobrou a banda

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/questao-dos-socs.html 1/2
07/03/2019 A questão dos SoCs - Hardware.com.br

do chipset de vídeo, permitindo que a frequência dele fosse aumentada de 110 para 200 MHz,
o que explica os ganhos dramáticos em relação ao desempenho 3D. É por isso que mesmo que
se faça overclock do Milestone 1 de 550 MHz para 1 GHz, o desempenho continuará bem
diferente do desempenho do Milestone 2, baseado no novo chip.

Além do tipo da memória usada temos a questão da frequência e do número de canais usados.
O Samsung Hummingbird (usado no Galaxy S I9000), por exemplo, utiliza chips de memória
LPDDR2 de 200 MHz, acessados através de um barramento de 32 bits, dual-channel. O Exynos 4
quad do Galaxy S III, por sua vez suporta o uso de módulos LPDDR3 de 800 MHz ou módulos
LPDDR2 de 533 MHz acessados através do mesmo barramento de 32 bits dual-channel, o que
significa uma banda uma mais larga.

O Exynos 4 também adota um encapsulamento PoP (package on package), onde o SoC é


encapsulado com dois chips de memória RAM soldados diretamente sobre ele, como você
pode ver na foto a seguir. Essa proximidade entre o SoC e os chips de memória reduz a
latência, o que também ajuda no desempenho:

ÍNDICE

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/questao-dos-socs.html 2/2
07/03/2019 As GPUs móveis - Hardware.com.br

A evolução dos smartphones - parte 3


As GPUs móveis
 Por Luciano Lourenço  maio 22, 2012  TUTORIAIS

Compartilhe Tweet Google+ + ANTERIOR: A questão dos SoCs

As GPUs móveis

Depois da memória, temos a questão da GPU, que não apenas determina os formatos e
resoluções de vídeo que poderão ser decodificados via hardware, mas também o
desempenho em jogos e diversos tipos de aplicativos.

AS GPUs móveis se dividem basicamente em quatro famílias. A primeira delas é composta


pelas GPUs da linha Adreno, que foram inicialmente desenvolvidas pela Imageon, que
depois de uma rápida passagem pela AMD foi comprada pela Quallcomm, que continuou a
desenvolver as GPUs e as utilizar em seus produtos. A segunda é a PowerVR, desenvolvida
pela Imagination Technologies e licenciada para diferentes fabricantes, como a Texas
Instruments, Samsung, Apple, Intel (que usa as GPUs em alguns modelos do Atom), entre
vários outros fabricantes. A terceira é a linha Mali, desenvolvida pela ARM e também
licenciada para diversos fabricantes, usada especialmente pela Samsung. A quarta são as
GPUs da nVidia, encontradas nos SoCs da linha Tegra.

Assim como as GPUs para desktop, todas as GPUs móveis recentes oferecem suporte ao
OpenGL 2.0 (que é tradicionalmente a a API mais usada no ambiente móvel, preferida tanto
no Android quanto no iOS), com muitas já oferecendo suporte também ao DirectX 10.1, que
vem ganhando espaço no mercado móvel devido ao Windows Phone.

Por ser usada apenas nos chips da Quallcomm, a família Adreno foi bastante popular entre
os aparelhos Android de primeira e segunda geração, devido à grande popularidade dos
SoCs da família Snapdragon, mas com a entrada dos SoCs da Samsung, Texas Instruments,
nVidia e outros, eles acabaram perdendo espaço, embora ainda sejam usados em muitos
aparelhos.

O Adreno 200 é a mais antiga entre as GPUs encontradas nos aparelhos atuais, ela foi
usada por exemplo no Nexus One. Ele suporta frequências de operação modestas, de até
128 MHz, frequência na qual ele é capaz de desenhar 22 milhões de triângulos por segundo,
https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/gpus-moveis.html 1/5
07/03/2019 As GPUs móveis - Hardware.com.br

com um throroughput de 133 megapixels, um desempenho bastante baixo dentro dos


padrões atuais.

Em seguida temos o Adreno 205, que implanta suporte à aceleração via hardware para o
Adobe Flash e melhor suporte a shaders, com suporte frequências de até 200 MHz e um
desempenho bruto de 40 milhões de triângulos e 432 megapixels por segundo. O Adreno
220 representa um grande salto em relação aos dois chipsets anteriores, com uma grande
melhora tanto no processamento matemático, quanto nas unidades de renderização. Ele
oferece um desempenho 3D competitivo em relação ao PowerVR SGX 540 usado no
Samsung Hummingbird. Ele é usado no SoC Quallcomm MSM8x60, usado por exemplo no
HTC Evo 3D. Em seguida temos o Adreno 225, que é capaz de operar a frequências mais
altas (até 400 MHz, contra os 266 MHz do Adreno 200), além de oferecer suporte a memória
em dual-channel, oferecendo mais um ganho de desempenho considerável em relação ao
220.

A família Adreno oferece uma curva de evolução bastante acentuada. Apesar da pequena
diferença na numeração, o Adreno 205 oferece o dobro do desempenho do Adreno 200,
enquanto o Adreno 220 novamente dobra o desempenho do anterior. O Adreno 225 por
sua vez é uma evolução um pouco menos dramática, que mantém a mesma arquitetura,
mas opera a um clock mais alto, oferecendo um ganho de mais 50% em relação ao Adreno
220, cerca de 6 vezes mais rápido que o Adreno 200 original.

A linha PowerVR é descendente das placas Kyro e Kyro II para desktops, que na virada do
milênio, desafiaram momentaneamente o reinado da ATI e da nVidia, oferecendo um

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/gpus-moveis.html 2/5
07/03/2019 As GPUs móveis - Hardware.com.br

sistema de renderização de superfície (tile based) que renderiza apenas as camadas visíveis
da imagem, sem desperdiçar ciclos de clock renderizando objetos e superfícies que não são
visíveis para a câmera. Esta é uma técnica que permite melhorar bastante a eficiência do
chip, resultando em mais frames por cada unidade de processamento disponível, mas que
em troca resultou em muitos problemas de compatibilidade nos desktops. No ramo móvel
por sua vez, a empresa encontrou um terro muito mais fértil, pois a arquitetura se tornou
uma vantagem técnica importante, ajudando a reduzir o consumo e melhorar a eficiência
dos chips.

A linha atual é composta por chips das séries 5 e 5XT, que estão duas gerações à frente das
antigas placas para desktop e foram cuidadosamente miniaturizados para ocuparem pouco
espaço nos SoCs.

A base da pirâmide é a SGX520, que oferece um desempenho modesto, com apenas um


pipeline USSE e um desempenho bruto de 125 megapixels a 100 MHz. A SGX535 (usada no
iPhone 3GS e em diversos outros aparelhos) dobra o desempenho por clock, trazendo dois
pipelines e oferecendo um fill-rate de 250 megapixels a 100 MHz, ou 500 megapixels a 200
MHz, ao mesmo tempo em que quadruplica o poder de cálculo do chip, desenhando até 28
milhões de triângulos por segundo (a 200 MHz). O modelo seguinte é o SGX540, que utiliza
4 pipelines, novamente dobrando o poder bruto de renderização, com 1 gigapixel e 7.2
gigaflops a 200 MHz. A frequência usada na prática entretanto pode variar de acordo com o
aparelho, de acordo com o projeto e a autonomia de bateria desejada pelo fabricante.

O topo de linha enquanto escrevo é o SGX543, que mantém o mesmo projeto básico
do SGX540, com 4 pipelines e 1 gigapixel e 7.2 gigaflops a 200 MHz. A grande mudança é a
inclusão de suporte à combinação de várias GPUs no mesmo SoC, multiplicando o
desempenho. O iPhone 4S, bem como o iPad 2 utilizam o SGX543MP2, com dois núcleos,
enquanto o iPad 3 usa o SGX543MP4, de 4 núcleos. Graças à combinação da GPU poderosa
com o alto clock de operação, estes modelos da Apple têm dominado os benchmarks 3G
entre os dispositivos móveis a algum tempo.

Entre as GPUs da ARM, a mais proeminente é a Mali-400 MP, usada especialmente pela
Samsung nos SoCs da família Exynos (Galaxy S II, etc.). Assim como o SGX543, a Mali-400 MP
é uma GPU modular, que permite que o fabricante escolha quantos núcleos deseja
combinar para atingir o desempenho desejado. O mais comum é que sejam combinados 4
núcleos (Mali-400 MP4), chegando a uma GPU capaz de oferecer 7.2 gigaflops a 200 MHz,
com um desempenho consideravelmente superior ao de uma SGX540. A Samsung usou o
Mali-400 MP4 no Galaxy S II, superando todos os smartphones da época em desempenho,

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/gpus-moveis.html 3/5
07/03/2019 As GPUs móveis - Hardware.com.br

até que a Apple respondeu incluindo o SGX543MP2 no iPhone 4S que (embora operando a
um clock mais baixo) superou o Galaxy S II em 3D por uma boa margem, apenas para voltar
a ser superada pelo Galaxy S III, que trouxe uma implementação bem mais rápida do Mali-
400 MP, operando a um clock muito mais alto (devido à nova técnica de fabricação) com um
barramento mais largo com a memória. Isso mostra como a mesma GPU pode apresentar
grandes diferenças de desempenho em diferentes implementações, de acordo com o clock,
barramento com a memória e técnica de produção emprega. Este gráfico no Anandtech
ilustra bem este ponto, mostrando a diferença de desempenho 3D do Galaxy S II e do S III:

Finalmente temos a nVidia, que equipa os SoCs da linha Tegra com diferentes gerações da
GeForce ULV. Elas possuem muitas semelhanças com as GPUs usadas em desktops, mas
utilizam um volume muito menor de unidades de execução e implementam mudanças na
arquitetura (como a redução no número de estágios de pipeline) com o objetivo de reduzir
o consumo. O Tegra 2 inclui uma GPU com 8 unidades de processamento de shaders (4
para pixel shaders e 4 para vertex shaders), que, operando a 333 MHz oferece um
desempenho em 3D similar ao da PowerVR SGX540 usada no Samsung Hummingbird.
O Tegra 3, por sua vez, usa 8 unidades de processamento de pixel shaders e 4 de vertex
shaders (12 no total), privilegiando o desempenho em jogos, bem como oferece suporte a
frequências de operação mais altas. Devido a essas melhorias, o Tegra 3 fica no meio do
caminho entre o desempenho da SGX540 e da SGX543MP2 do iPad 2, o que é um
desempenho forte, mas não algo conclusivo como muitos esperavam da nVidia. Este outro
benchmark do Anandtech ilustra bem esse ponto:

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/gpus-moveis.html 4/5
07/03/2019 As GPUs móveis - Hardware.com.br

A verdade é que em se tratando de GPUs móveis o desempenho é limitado mais pelo


consumo elétrico do que pela arquitetura, por isso fabricantes que começaram com
projetos de extremo baixo consumo e a partir deles começaram a desenvolver projetos de
GPUs mais poderosas, como a Imagination acabam tendo mais facilidade que fabricantes
que começaram com GPUs maiores e passaram a tender desenvolver projetos de baixo
consumo a partir delas, como a nVidia.

Uma última observação é que o desempenho da GPU é diretamente influenciado pela


resolução da tela (já que uma resolução mais altas significa mais pixels a renderizar por
frame), de forma que um aparelho com uma tela HD 720 (1280×720) vai precisar de uma
GPU bem mais poderosa apenas para oferecer o mesmo despenhoso que outro equipado
com uma tela WVGA (800×480).

https://www.hardware.com.br/tutoriais/evolucao-dos-smartphones-parte3/gpus-moveis.html 5/5