Indústria 4.0: autonomia e gestão de tráfego de dados

ind_40.png*Por Kevin Magee
12/07/2017 - Para alcançar um menor custo de produção, a Adidas estabeleceu sua produção em larga escala de tênis esportivos na Ásia. Entretanto, essa estrutura impõe um intervalo de 18 meses entre o design e a entrega nas lojas, o que para os consumidores é uma espera cada vez mais desagradável.

Isso porque os clientes não apenas procuram por produtos únicos e customizáveis, mas querem acesso imediato aos últimos modelos. Visto que o modelo tradicional de confecção não atende essa demanda, a Adidas está criando uma "fabrica expressa" para produzir sob medida os tênis esportivos, localizada o mais perto possível dos pontos de venda.

Similarmente, a Okuma, uma fabricante japonesa de máquinas utilizadas como ferramentas, desenvolveu um processo de moagem completo, capaz de funcionar autonomamente 24 horas por dia, sete dias por semana. Essa linha integrada inclui a habilidade de automaticamente selecionar as ferramentas de corte de acordo com a conveniência, bem como fornecer a matéria prima e suprimentos sem nenhuma necessidade de intervenção humana. Nesse cenário, os trabalhadores no local somente supervisionam a planta fabril por meio de ferramentas de monitoramento instaladas em tablets, além de desempenhar tarefas de alto valor agregado. Em outras palavras, a fábrica é completamente automatizada.

Esses exemplos nos mostram um vislumbre da quarta revolução que ocorre nesse momento – responsável por transformar tanto os paradigmas atuais da economia global como os fatores que determinam valores econômicos. Na mesma linha das três revoluções anteriores, essa também é baseada na rápida adoção de novas e disruptivas tecnologias, que desafiam todas as nossas premissas e muda tudo o que conhecemos sobre fabricação. Isso também significa que trabalhadores, donos de indústrias e os governos precisam atentar-se a esse movimento e se preparar para o inevitável (ou deixar tudo para lá).

Vive lés revolucions

A primeira revolução industrial foi desencadeada pela invenção das máquinas a vapor, que mecanizaram mão-de-obra e habilitaram uma escala incrível de produção. Depois, a eletricidade permitiu a linha de montagem e, com isso, o nascimento da fabricação em massa.

O terceiro maior avanço industrial veio com os computadores, que abriram caminho para a automação robótica e máquinas capazes de integrar linhas de montagem – e assim melhorar ou, em alguns casos, substituir trabalhadores humanos.

Hoje, a produção industrial evolui do modelo e mindset guiados previamente pelas três revoluções anteriores, que focaram na centralização e produção em massa para alcançar uma economia essencialmente em maior escala, para uma norteada pela customização de massa e flexibilidade, com a produção de produtos tão próxima dos centros de venda quanto possível.

Em vez de criar e gerenciar inventários, o setor industrial busca hoje construir uma cadeia de suprimentos integrada que se ajusta dinamicamente, capaz de se adaptar aos requisitos logísticos em tempo real e atender as demandas dos fornecedores e clientes. Isso inclui a habilidade de prever e tomar ações corretivas na medida em que são necessárias.

O que torna esse movimento transformador e "revolucionário" é que os fabricantes visam atingir todas essas metas com mínima ou nenhuma intervenção humana de ponta a ponta no processo de produção.

Apelidado Indústria 4.0, esse modelo depende extensivamente de automação e troca de dados entre as tecnologias envolvidas, como a integração entre sistemas físicos e virtuais, a internet das coisas (IoT), computação em nuvem e big data.

Descentralização e automação com fábricas inteligentes

A Indústria 4.0 procura essencialmente transformar a própria instalação num computador ou "fábrica inteligente". Dentro de cada unidade fabril, os processos de fabricação modular podem ser desenvolvidos por meio de sistemas "ciberfísicos", que incorporam tecnologia de informática nas próprias máquinas, e não apenas nos sistemas para controle remoto e monitoramento. Dessa forma, essas instalações inteligentes modulares poderão autonomamente permitir a descentralização e automação das decisões em relação à produção, bem como se comunicar e cooperar via IoT com operadores humanos e outras unidades inteligentes, no intuito de completar uma mudança de oferta vertical ou horizontal completa.

Isso é o que o setor de tecnologia da informação tem feito com centros de dados há anos: virtualizar servidores físicos, possibilitar tecnologias de automação e permitir que as máquinas se auto gerenciem de forma limitada. E continuamos a empurrar esses modelos para avançar com redes definidas por software (SDNs), nuvens híbridas e inteligência artificial (AI).

Porém, ao passo em que a virtualização dos centros de dados torna-se cada vez mais mainstream, a Indústria 4.0 ainda é nova e pouco conhecida, apesar de crescer em significado dentro da comunidade global. Esse movimento começou apenas alguns anos atrás, em 2013, quando o governo alemão cunhou o termo ao delinear um plano de informatização completo do setor industrial do país.

A chanceler alemã Angela Merkel apresentou o conceito no Fórum Econômico Mundial de Davos em 2015, referiu-se a essa transformação como "Industrie 4.0". Ela apontou entusiasticamente esse novo modelo como meio de "lidar rapidamente com a fusão dos mundos online e a produção industrial ". E grande parte do mundo industrializado pareceu tomar nota.

Longe da retórica política, o governo alemão está investindo mais de 200 milhões de euros para incentivar pesquisas práticas e aplicáveis nas universidades, no mundo corporativo e nas esferas governamentais. E a Alemanha não é o único país apostando nessa ideia.

Quatro princípios de design da indústria 4.0

Existem quatro princípios de design que suportam e definem a Indústria 4.0:

· Interoperabilidade: capacidade de máquinas, dispositivos, sensores e pessoas para se conectarem e se comunicarem via IoT ou Internet of People (IoP).
· Transparência da informação: a capacidade dos sistemas de informação para criar uma cópia virtual do mundo físico com base em dados de sensores, que por sua vez enriquecem modelos de plantas digitais. Isso requer o acúmulo de dados do sensor bruto para valorizar informações contextuais.
· Assistência técnica: primeiro, a capacidade em prover assistência aos seres humanos, agregando e fornecendo informações de forma compreensível para tomar decisões informadas e resolver problemas urgentes. Em segundo lugar, a habilidade dos sistemas cibernéticos para fisicamente dar suporte às pessoas, realizando uma série de tarefas consideradas desagradáveis, muito cansativas ou inseguras.
· Decisões descentralizadas: a capacidade dos sistemas cibernéticos de tomar decisões por conta própria e realizar suas tarefas da forma mais autônoma possível. Somente em caso de exceções, como interferências ou objetivos conflitantes, devem ser delegadas a um nível superior.
(Fonte: Princípios de Design para Cenários da Industrie 4.0)

Desafios técnicos da indústria 4.0

As revoluções geralmente são desafiadoras e desordenadas - e essa não será diferente. Para além dos obstáculos culturais e políticos inerentes a quaisquer mudanças relacionadas à produtividade econômica, existem várias questões tecnológicas que devem ser superadas para permitir a adoção do modelo da Indústria 4.0. Essas incluem:

· Os problemas de cibersegurança aumentam consideravelmente com a integração de novos sistemas e maior acesso aos mesmos. Além disso, o conhecimento de produção proprietária torna-se um problema de segurança de TI;
· É necessário um alto grau de confiabilidade e estabilidade para uma comunicação ciberfísica bem-sucedida, algo difícil de alcançar e manter;
· Garantir a integridade do processo de produção com menos supervisão humana pode se tornar uma barreira;
· E evitar problemas técnicos que podem causar interrupções de produção caras é sempre uma preocupação.

Num mundo onde as organizações lutam para garantir disponibilidade e segurança da tecnologia de seus data centers, a ideia de construir aplicações ciberfísicas que envolvam não apenas software, mas também maquinaria industrial combinada a responsabilidade adicional de instalar uma fábrica no qual cada máquina, dispositivo e controle agora é um ponto final, parece ser o desafio maior e ainda a ser mencionado da indústria. Tudo isso precisará ser executado numa rede, o que significa que descobrir tudo e permitir essas mudanças revolucionárias provavelmente será o trabalho do departamento de TI.

O gerenciamento de desempenho de soluções, em particular, na Indústria 4.0, será exponencialmente mais complexo do que é hoje. Atualmente, quando um aplicativo de software tradicional cai, ou pior ainda, fica "lento", é difícil descobrir a causa o problema. A maioria das organizações conta com uma série de ferramentas para ajudar a monitorar e diagnosticar essas ocorrências, evitando assim aquelas conferências telefônicas no fim de noite em que a equipe de software culpa a rede, ao passo que a equipe da rede junta registros intermináveis ​​para provar que é o banco de dados causando o problema, e etc. Infelizmente, esses times de resposta ainda se deparam com um cenário de muitas ferramentas e visibilidade insuficiente para fazer o trabalho.

As plataformas de visibilidade

Esse problema de falta de visibilidade pode ser amplamente revertido pelas plataformas de visibilidade, que fornecem uma visão de ponta a ponta das interações dos usuários com não apenas um aplicativo, mas com a infraestrutura completa que o suporta. Isso permite que a TI aproveite as ferramentas de diagnóstico de forma mais eficaz para resolver problemas de desempenho.

Mas imagine um futuro não tão distante, em que os departamentos de TI serão solicitados para diagnosticar as causas que levaram à queda de uma linha de montagem ciberfísica, totalmente automatizada e autônoma, ou pior ainda, quando a mesma diminui o ritmo de produção. Nesse cenário, toda a linha de montagem e os seus componentes físicos se configuram como um novo "aplicativo", introduzindo uma complexidade numa escala que tornará as aplicações de software tradicionais algo simples.

Embora o problema de monitorar e gerenciar o desempenho das aplicações ciberfísicas da Industria 4.0 pareça enorme, a solução é muito parecida com a visibilidade tradicional da rede. Tocando pontos de interesse em todos os aplicativos da linha de montagem e rede da fábrica inteligente, apenas as plataformas de visibilidade podem continuar a entregar o que interessa aos operadores, auxiliando inteligentemente e aumentando a capacidade de ferramentas de monitoramento e diagnóstico para escalar a tsunami de dados resultantes das operações fabris.

Além dos problemas de desempenho de aplicativos, garantir a "inteligência" da fábrica também será um desafio muito maior. Não somente pela complexidade adicional resultante da adição de máquinas, sensores e inúmeros outros dispositivos de ponto final do IoT à rede, mas pela própria natureza da Industria 4.0 é baseada em interligar e integrar intimamente não apenas redes corporativas confiáveis, agregando inclusive toda rede de suprimentos. Então, como a TI protegerá essa "rede" quando o conceito de perímetro é completamente eliminado e a rede potencialmente abrange o mundo inteiro?

É nesse ponto que a abordagem tradicional de visibilidade da rede para a segurança começa a perder sua efetividade. Uma nova forma baseada em uma plataforma de entrega de segurança será necessária para monitorar e fornecer constantemente feeds de dados de forma inteligente para ferramentas de segurança em tempo real, visando acompanhar o volume e a velocidade das informações geradas pelas fábricas nesse novo modelo industrial.

Preparando-se para o inevitável: a visibilidade primeiro

No fim, é do cruzamento gerenciamento de desempenho e a segurança que se estabelece a confiabilidade do processo. E fornecedores, operários de fábrica, profissionais de logística e consumidores devem ter essa confiança nos sistemas subjacentes que permitem as iniciativas da Indústria 4.0. Sem isso, e uma adesão rigorosa aos acordos de nível de serviço combinada a garantias de confidencialidade e integridade de sistemas e dados, o modelo da Indústria 4.0 desmorona completamente. Portanto, o desafio para a TI será acompanhar os desenvolvimentos e garantir que a instrumentação e a visibilidade na camada da rede não sejam deixadas para depois, mas integradas nas primeiras etapas do design inteligente da fábrica.

E tudo está acontecendo muito rápido. Por quê? Como os primeiros adeptos dos conceitos da Indústria 4.0 já estimam benefícios significativos de investimentos com algumas previsões iniciais, indicando ganhos de receita de mais de 30% e redução de custos de mais de 30%. Esses incentivos financeiros, juntamente com o imperativo de se manterem competitivos no mercado global, direcionarão as decisões estratégicas de negócios para abraçar o setor 4.0 e, como funcionários, fabricantes e governos, nós precisamos tomar nota desta revolução que está se formando e começando a se preparar.

*Kevin Magee é estrategista de Segurança Global da Gigamon

Comentário (0) Hits: 92

Resource fornece infraestrutura para o Orlando City

orlando_stadium.jpg07/07/2017 - Companhia brasileira implementa Serviços de Service Desk e Field Services que contemplam 500 access points, telões, câmeras de segurança e scanners para leitura de ingressos para o Orlando City Stadium, um dos mais modernos estádios da Major League Soccer

O Orlando City, clube profissional com sede em Orlando, na Flórida (EUA), inaugurou recentemente um moderno estádio, com Serviços de Gestão de infraestrutura de tecnologia fornecida pela Resource, uma das principais e mais bem-sucedidas multinacionais brasileiras de serviços de TI e Integração Digital.

“Estamos muito empolgados e felizes por fazer parte desse projeto. Uma empresa legitimamente brasileira ter sido escolhida para levar tecnologia e infraestrutura de ponta para os Estados Unidos é motivo de grande satisfação”, afirma Fábio Back, Vice-Presidente de Negócios da Resource para a América do Norte.

Como primeiro cliente da Resource da área esportiva, o Orlando City Stadium foi inaugurado em março de 2017, mas o trabalho da empresa começou antes: em janeiro deste ano. “Dividimos a nossa atuação em duas frentes: estádio e escritório do time. Em ambas, além da implementação realizada em parceria com outras companhias norte-americanas, cuidamos da sustentação do ambiente digital”, diz Back. Foram instalados 500 access points para acesso à Internet, telões, câmeras de segurança e scanners para leitura dos ingressos, além de equipamentos de informática, de som, de TV e de comunicação.

Para suportar o tráfego de dados, foi implantada uma rede interna de 10 GB de velocidade. “Fazemos todo o Service Desk para a utilização do escritório pelos funcionários. Atuamos para garantir o pleno acesso e funcionamento de todos os equipamentos, seja em dia de jogos, seja em reuniões”, diz o Vice-Presidente.


Comentário (0) Hits: 88

Machine Learning, Deep Learning e Chatbots

chatbot.jpgO que são e como podem impulsionar os negócios?

*Por Mateus Azevedo
06/07/2017 - Quanto mais a tecnologia evolui, mais surgem novos termos, o que pode deixar muita gente confusa, dada a sua complexidade e proximidade entre os temas. Entre tantos, alguns dos mais falados atualmente são: Machine Learning, Deep Learning e Chatbots, todos recursos derivados da Inteligência Artificial. Você sabe qual a diferença entre eles e para que servem?

Os termos Machine Learning e Deep Learning iniciaram em pesquisas durante os anos 1960, mas as mudanças promovidas ao longo destas quase cinco décadas tornaram as diferenças entre eles ainda mais profundas.

O Machine Learning é a aplicação de algoritmos e técnicas que permitem que um computador adquira conhecimento na forma de modelos, regras e padrões a partir de um volume de dados. Este conhecimento pode então ser aplicado na tomada de decisões ou na previsão de eventos. Redes sociais e aplicativos de streaming utilizam conhecimento adquirido com Machine Learning para personalizar o feed e fazer recomendações de acordo com padrões de utilização de seus usuários.

O Deep Learning é uma forma de se implementar o Machine Learning utilizando algoritmos de Redes Neurais Artificiais (ANN). O termo "Deep" (profundo) faz referência às enormes redes neurais utilizadas, com múltiplas camadas de inúmeros neurônios, por onde passam gigantescas quantidades de dados. O uso de processadores gráficos, as GPUs, que possibilitam processamento paralelo intenso à baixo custo, e a disponibilidade de gigantescos volumes de dados causaram um boom do Deep Learning nos últimos anos.

Considerado como a nova interface entre consumidor e empresa e já utilizado em larga escala, o Chatbot é um robô que utiliza o Machine Learning e o Deep Learning para realizar conversas via chat ou voz com seres humanos. O Chatbot é normalmente utilizado para automatizar o atendimento ao cliente com o intuito de agilizar este processo, podendo ser aplicado para esclarecer dúvidas e vender produtos e serviços.

Mas para que tudo isso serve no mundo dos negócios?

Se você pensa que estas inovações são papo de nerd, não se encaixam no seu negócio devido ao core business não estar atrelado ao universo da tecnologia ou a setores que não utilizam estes recursos em larga escala, está profundamente enganado. A tendência é que estas e outras novidades ingressem cada vez mais no dia a dia de usuários e empresas, até se tornarem essenciais, como aconteceu com a internet. Os casos de sucesso já se multiplicam mundo afora.

Segundo uma pesquisa do Gartner, até o próximo ano, 20% de todos os conteúdos empresariais já serão criados por máquinas. A consultoria também avaliou que até o fim de 2016 aproximadamente US$ 2 bilhões em vendas online foram realizadas pelo celular, após a troca de 1,8 bilhão de mensagens com mais de 20 mil robôs integrados de uma das empresas que oferece este tipo de serviço. Um estudo da Tata Consultancy Services também apontou que 7% das empresas no mundo destinaram, no mínimo, US$ 250 milhões para a Inteligência Artificial em 2016 e 2% pretende investir mais de US$ 1 bilhão.

De modo geral, a popularização da Inteligência Artificial pode somar 0,9% à taxa de crescimento do PIB do brasileiro até 2035, de acordo com estudo da Accenture, o que resultaria num aumento do Valor Adicionado Bruto (VAB) de US$ 432 bilhões para US$ 3,452 trilhões.

As aplicações são inúmeras. Além da redução do tempo de atendimento e aumento da agilidade já realizado pelo Chatbot, o Machine Learning, por exemplo, permite detectar fraudes e invasões na rede, análise e indicação de preferências de usuários, previsão de falhas de equipamentos, ofertas em tempo real, reconhecimento de padrões e imagens, calcular tempo de espera, previsões financeiras, médicas e etc, carros autônomos e muito mais. Segundo a IHS Automotive, 12 milhões de automóveis autônomos circularão em todo o mundo até 2035.

O Machine Learning, Deep Learning e o Chabot já estão impactando todos os setores, empresas e indivíduos. Para não ficar para trás, é preciso olhar fora da caixa e perceber como estas tecnologias podem ser aplicadas ao seu negócio.

*Mateus Azevedo é sócio da BlueLab, especializada em sistemas avançados de atendimento automático.

Comentário (0) Hits: 145

Como evitar perdas de água na rede pública?

vazamento_agua.jpg05/07/2017 - Inteligência Artificial deverá ser a arma de governos contra vazamentos de água porque monitora a rede de abastecimento em tempo real, maximizando infinitamente as chances de detectar perdas com vazamentos.

Estados e municípios lutam diariamente para detectar os vazamentos de água na rede pública e diminuir a perda milhões de litros mensalmente, economizando recursos naturais e dinheiro público. O problema é que a busca de vazamentos é feita manualmente, por profissionais altamente especializados, chamados geofonistas.

De acordo com o Instituto Trata Brasil, hoje o país perde, em média, 37% da água coletada por vazamentos nos ramais, ou seja, no encanamento entre a rua e as casas.

A startup sorocabana Stattus4 desenvolveu um sistema capaz de detectar esses vazamentos na rede pública de abastecimento, cobrindo áreas de vários quilômetros quadrados ao mesmo tempo. O projeto da empresa chama-se "Fluid: Sistema de Detecção Automática de Vazamento em Ramais", que através do uso de tecnologia de Inteligência Artificial e Aprendizagem de Máquina, possibilita a rápida detecção de um vazamento.

De acordo com Marília Lara, sócia e responsável pela administração e marketing da Stattus4, a solução que a empresa encontrou foi desenvolver sensores que são conectados nos cavaletes das casas e, por meio da vibração dos encanamentos, detectar os sons que indicam a probabilidade de haver ali um vazamento. Então, os sensores enviam para um software esses dados, e os vazamentos são mapeados e indicados para os técnicos, que podem se dirigir diretamente para a rua em que há chances de haver a perda de água no subsolo.

Com isso, a procura por esses vazamentos deixa de ser manual, com um técnico indo de rua em rua procurando, o que demanda muito tempo, ou após crateras se abrirem no solo com os vazamentos. Ou seja, toda uma rede de abastecimento pode ser monitorada em tempo real, maximizando infinitamente as chances de encontrar vazamentos de água.

Incubada do Parque Tecnológico de Sorocaba, a Stattus4 venceu o Prêmio Startup Assemae 2017, com seu projeto inovador na área do saneamento. A empresa concorreu com outras 20 participantes de todo o país e empatou em primeiro lugar com outra startup, a Wetlands Construídos. Os vencedores foram anunciados no encerramento do 47º Congresso da Assemae (Associação Nacional dos Serviços Municipais de Saneamento), no último dia 22, em Campinas.

De acordo com Marcelo De Santis, gestor de startups da incubadora do Parque Tecnológico de Sorocaba, esse prêmio "mostra que nossa startup está no caminho certo para solucionar um problema grave que este ramo apresenta, um custo alto de tratamento e distribuição da água no qual se perde ao longo do caminho", finaliza.

O Prêmio Startup Assemae 2017 é pioneiro na América Latina como iniciativa destinada inteiramente a soluções inovadoras no setor de saneamento básico, de acordo com seus organizadores. A iniciativa busca contribuir com o setor, apresentando novas tecnologias focadas na melhoria dos serviços públicos.

Legenda - Vazamento de água em bueiro entre a rua João Moura e a Iperó / Crédito: Cecília Bastos

Comentário (0) Hits: 239

Carros autônomos: a chave está no data center

simon_blake.jpg*Por Simon Blake
04/07/2017 - A disputa pelo mercado dos veículos autônomos envolve gigantes como Apple, Google e Tesla, além de todas as grandes montadoras de automóveis. A razão pela demanda é óbvia. A automação irá aumentar significativamente a segurança nas ruas e estradas – a tecnologia dos freios autônomos de emergência, por exemplo, contribui para reduzir acidentes. Outra vantagem é que o consumo de combustível será reduzido drasticamente. Sistemas autônomos são programados para frear e acelerar com o nível máximo de eficiência, uma inovação que, segundo a consultoria McKinsey, poderá reduzir as emissões de dióxido de carbono dos carros em até 300 milhões de toneladas por ano. Esta empresa aponta, também, os benefícios em produtividade que podem ser gerados por liberar os humanos da responsabilidade de dirigir. Com a adoção em massa dos carros autônomos, 1 bilhão de horas do dia serão economizadas pelas pessoas em todo o mundo. Somente no Reino Unido, a consultoria KPMG prevê que, em 2030, carros autônomos e conectados irão beneficiar a economia em até 51 bilhões de libras por ano.

Hoje os motoristas já conhecem os carros conectados. São os veículos que têm acesso à Internet e possuem uma variedade de sensores, sendo capazes de enviar e receber sinais, perceber o ambiente físico do seu entorno e interagir com outros veículos ou entidades. Segundo a consultoria PWC, prevê-se que as receitas de carros conectados disparem e atinjam mais de 155 bilhões de dólares até 2022.

Entretanto, quando falamos sobre carros autônomos, estamos falando sobre algo muito mais impactante.

O foco é em veículos que operam sem motorista humano – um conceito que, provocará uma revolução no volume gerado por dados automotivos. Se um único carro conectado gera hoje 25 GB de dados por hora, no futuro um carro autônomo tem a probabilidade de gerar uma quantidade dez vezes maior. Essas informações são importantes porque, na era dos veículos autônomos, é o binômio dado/conectividade que irá manter o mundo girando.

Vale a pena, portanto, investigar o impacto dos carros autônomos nos ambientes digitais. Tudo começa na miríade de sensores altamente sensíveis espalhados pelo veículo, dispositivos capazes de detectar perturbações tão leves quanto um cigarro caindo no chão. Esses sensores estarão a todo momento analisando os seus entornos em busca de sinais que acusem que os freios precisam ser acionados ou que é necessário acelerar o carro.

Veículos como esses têm embutidos computadores, receptores de GPS, dispositivos de rede wireless com acesso a sensores localizados no próprio carro e também acesso à Internet. Além disso, os carros autônomos interagem todo o tempo com redes wireless de sensores fora do carro: dispositivos implementados no entorno físico do automóvel.

Ou seja: os veículos autônomos estarão sincronizados com uma grande rede municipal, estadual ou federal que gerará dados sobre o ambiente e as vias locais (ruas, avenidas, estradas, pontes) do seu entorno. Essas redes instaladas fora dos carros monitoram congestionamentos na via, acidentes e potenciais perigos, etc.

O BigData do veículo autônomo vai além dos dados gerados pelo carro: o entorno também cria dados sobre os ambientes físicos por onde o carro trafega.

O veículo autônomo típico, dirigido cerca de 90 minutos por dia, gerará cerca de 4 terabytes de dados por dia. Alguns fabricantes de carros ainda em testes já estão gerando mais de um petabyte de dados por mês. Nesse contexto, data centers são essenciais para consolidar, gerenciar e analisar o imenso BigData gerado pelos veículos autônomos e por seu entorno. Essa realidade é um desafio para todos que pensam em transformação digital e na infraestrutura necessária para que esse avanço aconteça.

Para lidar com esta crescente demanda, a resiliência e disponibilidade da infraestrutura do data center serão cruciais. Os veículos autônomos precisam se manter conectados ao computador que gerencia seus dados. O mesmo vale para as ruas, avenidas e estradas por onde esse veículo trafegará.

Veja abaixo alguns vetores de transformação do data center na era do carro autônomo:

a) Colocation e Edge Computing serão essenciais. No mundo dos carros autônomos, a latência de dados é um grande perigo. No conceito de Edge Computing, os data centers deverão ser menores e mais espalhados, de maneira a estarem mais próximos dos locais onde os carros autônomos estarão trafegando. Uma outra forma de resolver esse desafio é investir em Colocation em data centers já existentes, de modo a montar uma infraestrutura distribuída de data centers, algo fundamental para garantir a conexão e a operação dos veículos autônomos.

b) O gerenciamento da infraestrutura do data center será crítico para o sucesso dos automóveis autônomos. A falha de um elemento do data center poderá provocar, em instantes, um engarrafamento de 10 carros. Isso torna a operação do data center mais crítica do que nunca. Neste contexto, é recomendável contar com soluções de gerenciamento de infraestrutura DCIM (Data center infrastructure management). Essas sofisticadas plataformas serão capazes, por exemplo, de equacionar as demandas de energia do data center que atua como retaguarda do carro autônomo. Além de trabalhar pela continuidade do processamento, as soluções DCIM buscam formas de otimizar e economizar no consumo de energia, demanda que aumentará de forma exponencial com a disseminação dos carros autônomos.

O mundo vive um momento de grande transformação. O potencial do automóvel autônomo é algo que chama a atenção de mercados, e vai definir o futuro. É bom lembrar, no entanto, que a chave para o automóvel autônomo está no data center.

*Simon Blake é diretor de Marketing da Vertiv para a região que engloba Europa, Oriente Médio e África (EMEA).

Comentário (0) Hits: 164

Quatro mitos e verdades sobre o Blockchain

bitcoin.jpg*Por Joel Nunes
27/06/2017 - A tecnologia Blockchain foi lançada em 2008 como suporte para a criptomoeda Bitcoin e, desde então, tem chamado a atenção dos mais diversos setores, principalmente o financeiro. Segundo o World Economic Forum (WEF), o Blockchain já mobilizou mais de 2.500 pedidos de patentes e cerca de US$ 1,4 bilhão em investimentos. Um estudo da Delloite estima, ainda, que 80% dos bancos devem realizar projetos relacionados a essa tecnologia em 2017.

O Blockchain funciona como um livro-razão distribuído, interligado e totalmente criptografado, que mantém todas as partes envolvidas a par das mudanças realizadas. Cada transação feita gera um bloco de informações, compartilhado com todos os participantes da rede, formando uma corrente de dados iguais que podem ser checados e validados entre si. Por conta dessas características, essa se torna uma plataforma praticamente à prova de violação e fraudes relacionadas a falsificação ou corrupção dos dados registrados em seu sistema. Afinal, caso um dos blocos dessa corrente esteja diferente dos demais, o sistema rapidamente percebe e mitiga a tentativa de fraude.

Isso a torna uma excelente tecnologia, que necessita ser ainda muito estudada e desenvolvida. Apesar algumas startups já terem iniciado o uso desse "livro-razão" nas mais diversas frentes, o modelo ainda não está completamente pronto para a adoção em transações de consumo de grandes massas – isso pode se tornar real em 3 ou 5 anos, talvez mais, na minha percepção.

Por ser uma tecnologia tão nova e cheia de possibilidades, é claro que surgem uma infinidade de teorias e possíveis aplicações doBlockchain. No entanto, entre todas essas tendências e previsões, há alguns mitos que precisam ser desmontados:

Blockchain e Bitcoin são a mesma coisa

Errado. O Bitcoin é uma criptomoeda que funciona como qualquer dinheiro de papel, mas existe apenas de forma eletrônica. Já oBlockchain, como comentamos no início, é a tecnologia por trás do Bitcoin. Ela funciona como o livro-razão com registro de todo o histórico de transações realizadas desde a criação do Bitcoin, em 2008. No entanto, seu uso não se limita às criptomoedas, o que nos leva ao segundo mito...

Blockchain serve apenas para indústria financeira

Muito pelo contrário, há uma infinidade de usos já mapeados para o Blockchain. Existem, por exemplo, estudos relacionados à utilização da tecnologia para registro e rastreamento de diamantes e de comida orgânica. Os cartórios, responsáveis por validar e registrar documentos e assinaturas, também poderiam ser melhorados – ou até substituídos – pelo Blockchain em um futuro distante. A verdade é que qualquer tipo de transação que precise de registros e documentação poderá ser otimizada por meio do Blockchain.

O Blockchain vai substitur o Banco Central

Não vai – ao menos não por muitos anos ainda. Entre diversas outras funções, o Banco Central é o supervisor do sistema financeiro em nosso país – a instituição é responsável por garantir a veracidade de todas as transações financeiras realizadas no Brasil. O sistema do BC levou tempo e recebeu altos investimentos para ser desenvolvido e se tornar tão seguro e confiável quanto é hoje, por isso é necessário que o blockchain esteja totalmente amadurecido antes de se começar a pensar em substitui-lo.

O sistema de pagamentos em tempo real, como os necessários para a aprovação de compras físicas com cartões, passará a usar Blockchain

As tecnologias baseadas em blockchain que existem hoje não oferecem a rapidez e escalabilidade necessárias para suportar a adoção com altos volumes de dados, como seria o caso do sistema de pagamentos em tempo real. Nesse caso, ele poderia se tornar muito lento. Quando um consumidor coloca sua senha no terminal do cartão, ou seja, na famosa "maquininha", ele espera que a aprovação de sua compra seja quase imediata, o que ainda é impossível com o uso do Blockchain.

*Por Joel Nunes, gerente de consultores de soluções da ACI Worldwide para a América Latina

Comentário (0) Hits: 162

newsletter buton