Estamos acostumados a usar o termo CPU (Unidade Central de Processamento) como referência ao cérebro de um computador. Mas, o que faz e o que é GPU? Ou a unidade de processamento gráfico?

Os controladores integrados usados na maioria dos PCs são capazes de trabalhar com gráficos básicos e rodam bem aplicativos de apresentações, vídeos de baixa resolução e jogos simples. Já o GPU vai muito além dessas funções elementares, ele é um dispositivo computacional programável e poderoso por si só.

Considerando a necessidade de processamento das novas tecnologias da Transformação Digital, como a realidade virtual e aumentada, a Blockchain, a mineração das criptomoedas e o Big Data, o GPU é uma solução que você precisa conhecer. Então, continue a leitura e confira!

O que é GPU e como ela evoluiu

Os recursos da GPU foram usados ​​originalmente pelo MIT nos simuladores de voo (1951), e a base dos sistemas de hoje, a partir de 1970, nos tratamentos de dados de vídeo. Porém, agora estão sendo aproveitados para acelerar o processamento em áreas como modelagem financeira, pesquisa científica de ponta e exploração de petróleo e gás.

Em um artigo recente da BusinessWeek, Nathan Brookwood, analista principal do Insight64, descreveu os recursos da GPU da seguinte maneira: “as GPUs são otimizadas para obter grandes quantidades de dados e executar a mesma operação várias vezes”.

Arquitetonicamente, a CPU é composta de alguns núcleos com muita memória cache que pode manipular individualmente alguns encadeamentos de software — um objeto formado por um conjunto de linhas de código que executam um serviço (tarefa) do software.

Em contraste, uma GPU é composta de centenas de núcleos que podem manipular milhares deles simultaneamente. Desse modo, uma GPU com mais de 100 núcleos pode acelerar alguns softwares em 100 vezes em relação a uma CPU. Além disso, ela é mais eficiente em termos de custo e energia.

Considerando que a exigência de processamento das novas tecnologias cria problemas com uma natureza paralela inerente — processamento de vídeo, análise de imagem, processamento de sinal —, a combinação de uma CPU com uma GPU pode oferecer um melhor valor de desempenho, preço e potência do sistema.

Uma rápida cronologia da evolução gráfica e da GPU

  • 1976: a RCA construiu o chip de vídeo “Pixie” com resolução de 62 × 128;
  • 1979: surgem suporte de cor RGB, sprites multicoloridos e planos de fundo de tilemap;
  • 1981: a IBM começou a usar um adaptador de monitor colorido (MDA / CDA);
  • 1991: a S3 Graphics introduziu o S3 86C911 e aumentou o desempenho;
  • 1995: todos os chips passaram a usar suporte de aceleração 2D;
  • Década de 90: o nível de integração de placas de vídeo foi significativamente melhorado com APIs adicionais;
  • 1995 a 2006: a “primeira GPU do mundo” veio em 1999. Começamos uma revolução e incorporamos a capacidade de realizar sombreamento especular, explosão volumétrica, ondas, refração, volumes de sombra, mistura de vértices, mapeamento de relevo e mapeamento de elevação;
  • 2007: início das GPUs de uso geral;
  • 2010, a Nvidia e a Audi usaram GPUs Tegra para alimentar o painel dos carros e aumentar os sistemas de navegação e entretenimento, impulsionando a tecnologia de direção autônoma;
  • atualidade: uso alargado das GPUs em campos como aprendizado de máquina, exploração de petróleo, processamento de imagens científicas, estatística, álgebra linear, reconstrução 3D, pesquisa médica e até determinação de preços de opções de ações.

A necessidade de processamento do Big Data

Todos nós já ouvimos a afirmação de que a quantidade de dados gerados nos últimos anos é maior do que tudo o que produzimos deles na história da humanidade. Essa equação continua crescendo exponencialmente impulsionada pelos dados de streaming e todo o conteúdo gerado individualmente.

Estima-se uma média de 2 megabytes por pessoa a cada segundo em 2020. Ao mesmo tempo, o uso combinado de processamento em memória (CPU) e em unidades gráficas (GPU) produz outra fórmula multiplicadora de capacidade. Uma CPU pode realizar cálculos mais rapidamente, enquanto a GPU usa milhares de núcleos para processar tarefas sequencialmente.

Desse modo, o GPU é um recurso que, quando adicionado a equação que mencionamos, se apresenta como um fator que minimiza significativamente esse tipo de limitação. A tecnologia já avançou muito no que se refere a capacidade de processamento, mas, ainda assim, como essa demanda não para de crescer, ela continua a ser um ponto que merece toda a atenção de especialistas.

A aplicação na realidade virtual e aumentada

Quando os desenvolvedores migram seus mecanismos de jogos para a realidade virtual, o primeiro desafio é o aumento da especificação. Há um salto no poder gráfico bruto de 60 milhões de pixels por segundo (MPix/s) em um jogo para 450 MPix/s na realidade virtual. E essas demandas quadruplicarão no próximo ano.

Por isso, as experiências virtuais por meio da realidade virtual aumentada e mista são uma nova fronteira para computação gráfica. Esse estado limite é radicalmente diferente dos gráficos modernos de jogos e filmes.

Os PCs nos colocaram em um novo patamar na atualidade ao fornecer um nível de desempenho que teria sido considerado um supercomputador há algum tempo, disponível apenas para usuários avançados. Hoje, os computadores pessoais, tablets, smartphones, kits multimídia automotivos e a televisão promovem um novo salto ao operar com GPUs.

A mineração de criptomoedas e a Blockchain

Não é segredo que a mineração das criptomoedas exige alto poder de processamento. Tanto que, recentemente, alguns sites foram acusados de instalar recursos para minerar Bitcoins nos computadores de seus usuários.

Além disso, considerando que a Blockchain não tem seu uso limitado às criptomoedas e que os blocos de dados estão espalhados em milhões de computadores pelo mundo, fica fácil deduzir o quanto a capacidade de lidar com essa gigante quantidade de informação se amplia com a utilização da GPU.

A Inteligência artificial e o Aprendizado por Máquina

Talvez fosse desnecessário mencionar o quanto essas duas tecnologias dependem do aumento da capacidade de processamento. Afinal, elas são um recurso aplicado no Big Data que, como vimos, está crescendo exponencialmente em volume.

Mas, há um aspecto particular no caso da IA e da Inteligência Cognitiva: essas tecnologias despontam como uma forma de amplificar o conhecimento humano. Nosso cérebro é “uma tecnologia” fantástica, mas tem limitações em processar variáveis distintas ao mesmo tempo.

É fascinante — e ao mesmo tempo assustador — imaginar que o conhecimento logo passará a crescer de forma proporcional a capacidade das máquinas de processar aprendizado. Mas, vamos concluir nossa postagem voltando ao futuro mais concreto.

A Transformação Digital precisa ser sustentada por recursos tecnológicos que só são viabilizados pelo aumento da capacidade de processamento dos equipamentos e, se dependermos exclusivamente de diminuir o espaço necessário para armazenamento de memória, estaremos impondo uma limitação indesejada!

tecnologiaTecnologia
Educação Jurídico Eu Na Facul: Evento online mostra oportunidades de carreira para quem deseja entrar na universidade
Gestão Como a IoT pode ser a chave para aumentar a produtividade
Educação Jurídico Eu Na Facul: Evento online mostra oportunidades de carreira para quem deseja entrar na universidade
Atendimento Digital Os novos rumos do atendimento telefônico
[contact-form-7 id="21113" title="ebook"]