Qual é o real valor dos dados?

Um beneficio da valorização dos dados é que ela torna mais simples a proposição de projetos que envolvam os conceitos de manuseio de informação, como Big Data

Cezar Taurion*

Hoje geramos dados a todo instante e em praticamente todas as nossas ações do dia a dia: quando fazemos compras nos supermercados, quando postamos no Facebook, quando usamos nosso smartphone, quando ativamos o GPS no carro e assim por diante. Claramente dados tem muito valor, mas ainda não conseguimos avaliar este seu valor corretamente. Alguns estudos apontam valores elevadíssimos.

Um recente estudo do Federal Reserve, nos EUA, estima que o total de dados e outros ativos intangíveis das empresas, como patentes, marcas registradas e direitos autorais podem valer mais de oito trilhões de dólares, que é um valor quase igual ao PIB somado da Alemanha, França e Itália. Estes ativos intangíveis estão se tornando parte cada vez mais importante da economia global.

As patentes, por exemplo, vêm sendo um dos principais motivadores de aquisições de empresas, como a compra da Motorola pelo Google, por mais de 11 bilhões de dólares em 2011. Outro exemplo é o valor de ações de empresas como Facebook, eBay e Google. Se subtrairmos suas dividas, vemos que elas possuem um total de 125 bilhões em ativos, mas o valor combinado de suas ações é de 660 bilhões de dólares. A diferença reflete a percepção do mercado de que os ativos mais valiosos destas empresas são seus algoritmos, patentes e um enorme volume de informações sobre usuários e clientes. Este valor não aparece nos balanços.

O desafio de valorizar dados

A partir de 2012 o Gartner começou a propor um novo modelo econômico para mensurar o valor dos dados, que ele batizou de infonomics. Infonomics é a disciplina de mensurar e avaliar a significância econômica dos dados e informações que uma empresa possui, de modo que estas informações possam ser valorizadas monetária e contabilmente. Recomendo ler um artigo sobre o assunto, publicado na Forbes:  http://www.forbes.com/sites/gartnergroup/2012/05/22/infonomics-the-practice-of-information-economics/.

É curioso observar que os dados, apesar de todos os discursos sobre seu valor competitivo, não são valorizados monetariamente e contabilmente. Por exemplo, se um data center pegar fogo, as seguradoras cobrem o prejuízo sofrido pelas instalações e pelo maquinário, de geradores a servidores. Mas não cobre o conteúdo dos dados que foram perdidos.

De maneira geral, uma empresa com boa governança de TI mantém uma política de backup eficiente e consegue recuperar todas ou quase todas os seus dados e informações. Mas caso não consiga, não obterá da seguradora a reparação pelo valor dos dados perdidos.

Vivemos hoje na sociedade a informação e informação é um produto por si mesmo, além de ser o combustível que impulsiona os negócios da maioria das empresas. A consequência deste fato é o surgimento, ao longo das ultimas décadas, de tecnologias de bancos de dados, data warehouses e, mais recentemente, o próprio conceito de Big Data.

Se analisarmos a informação vemos que ela se encaixa perfeitamente nas características de um bem econômico intangível. Entre elas:

a) Custo relativamente alto para sua criação. A produção da informação custa muito mais que as cópias geradas, que tem custo marginal.

b) Escalabilidade. Custos marginais para produzir duas ou duas centenas de cópias. Atualmente com armazenamento e cópias inteiramente digitais elimina-se também o custo de produção das cópias impressas.

c) Economias de escala em termos de produção. No caso da informação impressa, como em livros, quanto maior a edição, menores os custos individuais devido à economia de escala. Nos meios digitais, como e-books,  tais custos inexistem.

Escrever um comentário (0 Comentários)

5 coisas que o Big Data faz pela sua saúde

Nos últimos anos, hospitais, laboratórios e centros de pesquisa vêm se beneficiando do big data (tecnologia usada para captar e cruzar dados) com o intuito de monitorar, em tempo real, a saúde dos pacientes e de cruzar informações sobre tratamentos que são usados em outros países.

De acordo com a consultoria IDC, o uso do big data deve, ainda, reduzir os custos de clínicas e hospitais e viabilizar avanços na área de pesquisa de doenças complexas, como aids e diferentes tipos de câncer. Conheça, a seguir, cinco aplicações do big data na área de saúde:

1. Vacina contra o HIV

No Brasil, a unidade de imunologia do Instituto do Coração (Incor), em São Paulo, usa algoritmos disponíveis em bancos de dados públicos de todo o mundo para analisar padrões de mutação do vírus HIV. Esse recurso permite que os pesquisadores estudem as variações do vírus, o que é fundamental para que possam desenvolver uma vacina capaz de responder a essas mutações. “O uso do big data pode acelerar a descoberta para a cura da doença”, diz o médico Edécio Cunha, pesquisador do Incor

2. Avanços no tratamento do câncer

Enquanto os tipos de câncer mais comuns, como mama e próstata, já contam com protocolos de tratamento bem conhecidos, tipos menos comuns, como os cânceres que afetam crianças, ainda são um desafio para a medicina. A Universidade de Boston, nos Estados Unidos, usa bancos de dados espalhados pelo mundo para pesquisar e cruzar casos similares de doenças. Com isso, consegue orientar os médicos a prescrever drogas e terapias mais eficientes para cada tipo de tumor. Na prática, é como poder pesquisar, em tempo real, experiências bem-sucedidas executadas em todo o mundo para cada tipo de câncer

3. Sistemas antiepidemia

O cruzamento de dados de internações e diagnósticos de doenças registradas em hospitais de todo o mundo pode auxiliar os especialistas a detectar, logo no início, o surgimento de uma nova epidemia. Essa agilidade trazida pelo big data ajuda as autoridades sanitárias a identificar áreas onde há surtos de doenças tropicais ou infecciosas antes que elas se alastrem

4. Prevenção em tempo real

O uso de gadgets vestíveis, aqueles que monitoram a pressão arterial, o nível de glicose, a qualidade do sono e os batimentos cardíacos, por exemplo, já permite que pacientes de várias partes do mundo obtenham diagnósticos precoces de doenças como diabetes e arritmia cardíaca, agilizando o início do tratamento

5. Exames na nuvem

Uma das possibilidades do uso big data é a criação de bancos privados onde ficaria reunido o histórico médico e clínico dos pacientes. Uma vez analisados por algoritmos específicos, esses dados ajudariam o médico a acompanhar a saúde do paciente e prescrever, de forma mais detalhada e automática, a guia de exames necessários

Info

Escrever um comentário (0 Comentários)

O verdadeiro desafio do Big Data

Chegou a hora de se concentrar na aplicação prática da tecnologia e suas implicações para que a TI se beneficie da explosão de dados.

Nos últimos tempos, têm aumentado as discussões em torno de Big Data. A realidade, no entanto, é que muitas empresas já lidam com essa questão há muito tempo, bem antes desse termo ter virado moda e um jargão repetido à exaustão por fornecedores. Na prática, Big Data resume um conceito de explosão de dados de uma maneira não estruturada e de forma incontrolável e a necessidade de transformar esses dados em informações que possam ser utilizadas para direcionar os negócios e as estratégias da corporação, para apoiar o processo de tomada de decisões e minimizar riscos.

Apesar do conceito já estar bastante disseminado, ele ainda não reflete a realidade de 95% das empresas na América Latina e está longe de um entendimento prático por parte dos times de TI. Por conta disso, as discussões devem fugir dos jargões de marketing para se concentrar na aplicação prática de Big Data e suas implicações para que a TI se beneficie e surfe essa onda da explosão de dados.

Dentro dessa discussão, um recente evento discutiu como as empresas têm conseguido se beneficiar, na prática, dos ambientes de mídias sociais para geração de dados e transformação dos mesmos em vantagem competitiva para o negócio. Uma das conclusões foi a de que, em vez de utilizar o tradicional ROAS (Return On Advertising Spending ou, em português, Retorno do Investimento em Propaganda), é possível medir praticamente em tempo real o impacto nas redes sociais da exposição de marca ou de uma campanha específica. O que mostra como dados não estruturados podem ser transformados em informação de qualidade.

Mas o que é informação? De acordo com o Dicionário Contemporâneo da Língua Portuguesa, informação vem do latim, da palavra informatio,onis (delinear, conceber ideia). Ou seja, significa dar forma às ideias. E, se considerarmos que a TI significa Tecnologia da Informação é fundamental que o time de TI participe de forma ativa em todo o processo de geração e coleta de dados, transformando dados em informações e, estas últimas, em ativo da empresa.

Para que o processo funcione é necessário ter uma estrutura de coleta e armazenamento de dados, mantê-los em um ambiente seguro e transformá-los em informação, dentro de um ambiente redundante e com disaster recovery (recuperação de desastres). Parece óbvio, não? Não. A prática é que poucas empresas têm uma postura ativa de monitoração de data centers, um plano adequado de recuperação de desastres e um banco de dados com performance adequada ao ambiente atual e ao crescimento dos negócios.

E existe ainda mais um ponto que precisa ser considerado pelas empresas e que requer atenção máxima: como proteger essas informações geradas. Uma estrutura eficiente de firewalls, controle de acesso e gestão da conformidade dos elementos de TI às normas da empresas - quando existem -, são parciais. As ferramentas de segurança poucas vezes são consistentes com os desafios que evoluem dia-a-dia nas organizações.

A escolha de uma solução que cubra os elementos de proteção necessários em um ambiente de TI que atua com Big Data evita sérios problemas para as organizações, como os casos recentes de vazamento de informações, vivenciados por empresas como o Target e Playstation. Nesse contexto, é importante filtrar na origem quais informações são de fato confiáveis no momento em que entram na rede corporativa e avaliar conteúdos lícitos com a profundidade devida em busca de ameaças camufladas ou enxertadas. Aí, um bom firewall se faz necessário para controlar de forma granular.

Em resumo, quando aborda Big Data, o departamento de TI deve poder cobrir todos os elementos para gestão e segurança dos dados e trazer uma abordagem orientada ao negócio, a fim de suportar as oportunidades. Na prática, quando isso não acontece, as empresas perdem oportunidades de aumentar lucro, economia e evitar, de forma proativa, armadilhas do dia-a-dia da operação.

(*) Tulio Werneck é Diretor de Marketing para América Latina da Dell Software

cio.com.br

Escrever um comentário (0 Comentários)

Os benefícios do BI que toda empresa deveria conhecer

Os benefícios do Business Intelligence que toda empresa deveria conhecer

É interessante observar as companhias e perceber que nem sempre o óbvio é difundido. São poucas que largam na frente quando o assunto é inovação e investimento tecnológico. Muitas demoram para conceber e acreditar no retorno que estas soluções podem proporcionar. 

Várias empresas que apostaram nos benefícios do Business Intelligence (BI) com certeza puderam desfrutar desse retorno afirmativo nos processos e resultados organizacionais. Mas quais são esses benefícios que todas as organizações precisam conhecer? Por que o BI deveria ser adotado pela maioria das empresas? Compensa o investimento?

Essas perguntas pairam na cabeça da alta gestão que, normalmente, são céticas a qualquer grande mudança na organização, ainda mais quando o objeto em questão tem impacto na cultura de empresa, nos processos e no modo de tomar as decisões. Decisões estas que passam a ter maior embasamento e muito mais transparência aos olhos dos analistas de negócios, gestores e conselheiros.

Os benefícios do BI vão desde a tomada de decisão de forma mais pautada, como também:

  • Minimização de riscos;
  • Utilização de fatos ao invés de achismos;
  • Velocidade nas respostas corporativas;
  • Visualização das tendências;
  • Diminuição dos custos;
  • Aumento dos lucros.

A tomada de decisão é mais pautada devido ao subsídio que a informação fornece aos gestores, que muitas vezes se baseiam por decisões estabelecidas através de diálogos e intuições. Isso também favorece a minimização dos riscos, pois já que a decisão tem respaldo nos acontecimentos, o risco da decisão é imensamente menor.

A utilização de fatos ao invés da subjetividade (que as vezes prevalece em uma estrutura organizacional vertical) permite manter bom senso nas decisões gerenciais. Dessa forma cria-se uma cultura de transparência entre os colaboradores, além de transmitir confiança e solidez.

As perguntas que antes duravam dias ou semanas para serem respondidas, agora duram segundos ou no máximo alguns minutos. Isto porque a estrutura do BI é arquitetada para possibilitar facilidade de uso e também proporcionar rapidez nas repostas.

Outra coisa importante do BI é a previsão dos acontecimentos futuros através das tendências apontadas pelas informações. Isso permite à empresa se antever aos acontecimentos e estar preparada para os desafios futuros de forma proativa. 

A diminuição de custos se deve ao monitoramento e gestão dos gastos. Custos com viagem, cursos, equipamentos e salário, por exemplo, são facilmente analisados e administrados pela ferramenta adequada de BI. 

Todas essas características benéficas do BI têm participação crucial no aumento das receitas da organização. Elas permitem a preparação para focar diretamente no principal objetivo na maioria das empresas, que é a geração de lucros.

Portanto é importante que as organizações não subestimem a potencialidade que uma solução de BI pode fornecer. Sem dúvidas são benefícios que no dia a dia fazem a diferença no que tange ao alcance de metas, aumento dos lucros e satisfação dos clientes. Por isso, devemos ficar atentos para não perdermos a oportunidade de impulsionar os negócios através dessa poderosa solução chamada BI.

Canaltech.com.br

Escrever um comentário (0 Comentários)

Dez principais motivos para o fracasso do BI

 Muitos dos promissores projetos de Business Intelligence falham na metade do caminho. Não raramente, o desempenho dos sistemas não consegue acompanhar a demanda dos usuários finais

Muitos dos projetos de Business Intelligence terminam em fracasso.  Na maioria dos casos, dois fatores são apontados como os grande vilões. Um deles é a necessidade das empresas filtrarem um volume maior de informações de acordo com quesitos bastante específicos (relevantes para o negócio) o que faz aumentar a complexidade da pesquisa no sistema de BI. Ainda é necessário adequar o desenvolvimento de hardware e de software, que em passos mais lentos que essa demanda.

Além disso, vivemos em uma época na qual  - acostumados a fazer pesquisas no Google, por exemplo – os usuários desejam obter respostas rápidas. Tal velocidade, imprime nos sistemas internos a pressão de responder na hora, pois poucos usuários ainda toleram sistemas lentos. O retardo nas repostas leva a um só comportamento por parte do usuário final: o abandono da plataforma de informações. Prejuízo certo para a corporação que desembolsou uma quantia razoável pela solução.

O resultado do desastre é uma opulência de tabelas do Excel transitando pela corporação em silos desorganizados.

Baseando-se nos anos de experiência e em diversos debates com profissionais de TI e de unidades de negócio de centenas de empresas, a Information Builders identificou 10 razões mais frequentes do fracasso das implementações de BI.

1. Requisitos pouco claros

Depois que as unidades de negócio e o departamento de TI concordam que a sua empresa necessita de um sistema de reporting e de análise dos dados de negócio, o próximo grande passo é definir os indicadores-chave do desempenho (KPIs) para uma gestão empresarial eficaz. Contudo, em vez da definição destes indicadores, muitas empresas usam as aplicações de BI meramente para confirmar o que faziam anteriormente no Excel e, depois, questionam-se porque os seus relatórios são apenas um pouco melhor do que os anteriores.

2. Dados incorretos ou incompletos

Por mais persuasivo que o design da aplicação de BI possa ser, as pesquisas iniciais sobre a informação requerida em vastas fontes de dados durante um teste podem revelar que os dados estão desatualizados, têm erros ou (ainda) estão inacessíveis. Dados com pouca qualidade são uma causa frequente de grandes problemas nos projetos de BI. As lacunas, por vezes, também se revelam na utilização diária, quando se trabalha com dados que mudam frequentemente.

3. Usuários finais envolvidos tardiamente

Quando se implementa um projeto de BI, é essencial que se inclua colaboradores das unidades de negócio que irão trabalhar com a aplicação final já nas fases iniciais do projeto. Se a aplicação não está em sintonia com os seus inputs, o projeto provavelmente encontrará  considerável resistência. Se, no mínimo, poucos utilizadores tiverem a oportunidade de trabalhar com o primeiro produto acabado, então o próximo trabalho de projeto poderá incluir as suas experiências.

4. Resultados apresentáveis apenas após dois anos

Muitas vezes, as empresas tentam abordar todos os requisitos concebíveis de BI em um projeto a longo prazo. Enquanto uma abordagem estratégica é sempre correta, os problemas podem surgir se a equipe do projeto insistir em, inicialmente, manter o seu trabalho “em segredo”. Quando a equipe apresenta os seus primeiros resultados após dois anos, é altamente provável que estes se desviem significativamente das suas expectativas iniciais. É muito mais promissor se levarem dois ou três meses para apresentar módulos acabados que possam provar a sua adequação às operações diárias.

5. Falta de gestão da mudança

Mudanças e ajustes às especificações e objectivos originais existirão em qualquer projeto de BI. Contudo, em muitos casos, inexistem uma equipe de gestão formal das mudanças que definam como os novos requisitos serão incorporados ao projeto existente e um responsável pela sua aprovação. A falta de uma gestão de mudanças resulta rapidamente em custos adicionais e em atrasos na conclusão do projeto.

6. Cumprimento e segurança negligenciados

O número de disposições e regulamentações legais têm aumentado continuamente nos últimos anos, e as disposições de privacidade tornaram-se mais rigorosas. As equipes de projeto raramente têm em conta as normas, as regras e os conceitos de segurança, desde o início, ao fazerem disposições para integrar futuras mudanças o mais facilmente possível. Por exemplo, deverá ser necessário dar acesso aos usuários às aplicações e aos dados no futuro.

cio.com.br

Escrever um comentário (0 Comentários)

Companies using Hadoop for analytics

Companies using Hadoop for analytics bring meaning to satellite data
There is a tremendous amount of information stored in satellite imaging data, but discoverability is a persistent problem. The way in which images are processed and indexed can make it difficult for users to search through databases for meaningful information. But companies using Hadoop for analytics are helping to make this data more relevant.
Skybox Imaging is one company working to apply analytics to satellite images to leverage the data they contain. The company builds and operates high-resolution imaging satellites and makes the images, as well as data, available to customers. The image data can tell users the speed of a container ship as it moves through a waterway, the completion percentage of a construction project or how many empty spaces are in a parking lot.
To accomplish this is no small feat. Skybox aerospace engineer and vice president of product development Julian Mann said the data pulled out of their satellites wouldn't be recognizable to the average user on its own.
"If you took a single frame that came off the camera and tried to open it up in any imaging software that you might have on your computer, you wouldn't be able to see anything," Mann said. "It's a very raw sensory output."
Things get interesting when the company starts to organize and make sense of the data. Skybox partnered with Cloudera to implement their distribution of Hadoop. The software framework is necessary to handle the data-intensive nature of satellite imaging, Mann said. Skybox customers can then embed their own algorithms in the company's platform and use the analytics engine to crunch the data for their own purposes. Agriculture clients can monitor crop yields. Shipping and supply chain companies can monitor vehicles. Oil and gas companies can evaluate land areas. All of this is based on looking for changes in imaging data by using Hadoop for analytics.
The availability of satellite images isn't necessarily new, but the ability to study changes is, and the implementation of Hadoop into image databases enables it. Mann said this is what allows users to assemble data, normalize it, index it and make meaningful connections. The satellite imaging industry may be generating up to 15 petabytes of data per year within the next four years, he said. It takes a strong analytics engine like Hadoop to organize and make sense out of all this data.
This explosion of data is putting pressure on imaging and location intelligence companies to find ways to manage it all, but there are ways around putting too many internal resources toward database management operations. Mann said this is why Skybox chose to partner with Cloudera. The arrangement allowed Skybox to focus on the things it's good at, like analyzing geospatial sensing data, while letting Cloudera handle the things it have more expertise at, such as implementing Hadoop, he said.
While it may be good for companies engaging in heavy analytics to have staff members who understand databases, Mann said it is not necessary to devote resources to nuts-and-bolts implementation steps when there are vendors out there who are willing to do these tasks. Contracting out these pieces allows businesses to leverage analytics to make meaningful business improvements rather than focusing on becoming experts at implementing Hadoop, Mann said.

techtarget.com

Escrever um comentário (0 Comentários)

O Big Data trilha o caminho da inteligência

Indústria movimenta-se para ajudar empresas a trilhar o caminho da inteligência sobre grandes volumes de dados.

Todos os dias, cerca de 15 petabytes de dados estruturados e não estruturados são gerados, segundo projeções da IBM. Essa montanha de informações inclui mensagens trocadas a partir de dispositivos móveis, e-mails, fotos, vídeos, compras pela web, planilhas, textos, vídeos e outros. Para colocar em perspectiva, com apenas um petabyte, segundo cálculos de mercado, é possível armazenar mais de 114 mil horas de vídeo em HD, o mesmo que mais de 13 anos de programação contínua. Esse tsunami é uma grande oportunidade para o mundo corporativo, e representa desafio sem precedentes para a indústria da Tecnologia da Informação (TI), que aposta na oferta de ferramentas que ajudem as empresas a filtrar e modelar informações úteis para os negócios. 

Companhias estão diante de uma mina de ouro e começam agora a entender como forjar inteligência de negócios a partir dessa matéria-prima. É a era do Big Data que, segundo especialistas, bate à porta e deve ganhar impulso nos próximos anos, turbinada pelo crescimento do poder computacional e do surgimento de novas fontes geradoras de informação, como as redes sociais e a comunicação máquina a máquina (M2M). 

Big Data, no entanto, não se refere ao mero armazenamento de grandes volumes de dados. Volume + variedade + velocidade de geração de dados são os elementos que compõe o Big Data. O valor do conceito está na possibilidade de localizar, peneirar e analisar informações úteis a partir de diferentes fontes e em tempo real. Diferentemente do Business Intelligence (BI), que analisa o passado, a tecnologia prevê tendências futuras, balizando e agilizando as tomadas de decisão imediatas.

A indústria de TI, atenta ao potencial da solução para os negócios, está evoluindo suas ofertas para oferecer ao mercado tecnologias avançadas de Big Data. Ela se apoia em ferramentas analíticas que ajudem as companhias a reter clientes e a criar produtos em linha com seus desejos e necessidades. A proposta ambiciosa do Big Data é ajudar empresas a decidir com base em evidências e analisadas continuamente.

Dados espalhados pela organização, gerados pelos consumidores em mídias sociais ou por dispositivos móveis precisam ser colhidos, garimpados e moldados de acordo com as necessidades de negócios da empresa. 

A IBM investiu, nos últimos cinco anos, mais de 14 bilhões de dólares na compra de 24 companhias para reforçar as capacidades analíticas de suas tecnologias. Com a estratégia, batizada de Business Analytics, que inclui Big Data, a Big Blue pretende faturar 16 bilhões de dólares até 2015. “Temos um portfólio abrangente de tecnologias, que vai desde a coleta de dados de diversas fontes, passando por sistemas que analisam essa montanha de dados até o tratamento das informações em tempo real”, explica Cezar Taurion, gerente de Novas Tecnologias Aplicadas da IBM Brasil.

Ele diz que a fabricante também conta com serviços de consultoria e parcerias com universidades para formar talentos em Big Data, os chamamos cientistas de dados (leia mais na página 22). Por aqui, a capacitação para profissionais da área está chegando, mas nos Estados Unidos a empresa tem mais de 100 mil alunos inscritos na Big Data University, diz Taurion. 

“Estamos no início dessa era”, afirma. A desorganização ou até mesmo a falha em coletar as informações para analisar são barreiras que devem ser superadas. Taurion diz que a IBM está apostando no conceito de Smarter Storage, que reúne diversas tecnologias, para eliminar esses problemas. A abordagem permite que as companhias economizem até 47% do tempo usado na gestão do sistema, além de reduzir a complexidade em até 30%. 

Alguns casos experimentais em Big Data já podem ser observados, informa. Em Cingapura, a IBM implementou um sistema de previsão de congestionamento com sensores que se comunicam com dados históricos e relatos de obras em execução na cidade. Após análise dessa massa, é possível descobrir gargalos no trânsito. “No Rio de Janeiro, o Centro de Operações é capaz de descobrir, com 48 horas de antecedência, pontos potenciais de deslizamento de terra a partir da combinação de milhares de dados do sistema e topografia local”, exemplifica. Aí é que está o grande poder de Big Data, lembra, capturar dados, analisar e tomar decisões.

No mundo atual, diz Patricia Florissi, vice-presidente e diretora de Tecnologia das Américas, Europa, Oriente Médio e África (EMEA) da EMC, repleto de dados, não é mais viável verificar informações do passado e obter insights sobre o futuro manualmente. “É impossível realizar essa tarefa em banco de dados tradicional. Uma empresa não quer mais saber daqui a um mês o que aconteceu há 40 dias”, aponta.

Para ela, que mora nos Estados Unidos há mais de 20 anos, o Brasil apresenta condições econômicas para liderar iniciativas de Big Data em todo mundo. “Vejo o varejo e os bancos como os grandes usuários desse tipo de tecnologia”, destaca. “2013 vai marcar o ano da exploração de Big Data”, acredita. A ideia da micro segmentação de clientes, e não mais o tratamento por grupos, vai atrair a atenção das companhias.

Patricia afirma que há mais de três anos a EMC ingressou no universo de Big Data. “Identificamos que o volume de dados crescia a uma velocidade impressionante e criamos uma estratégia na área”, lembra. A jornada até Big Data incluiu a compra da VMware e Greenplum. Mais recentemente, em dezembro de 2012, juntou-se à VMware para criar a Pivotal Initiative, totalmente voltada para iniciativas de grandes quantidades de dados. “Essa nova divisão, que será uma empresa independente ainda neste ano, terá 1,5 mil pessoas totalmente focadas no tema.” 

Segundo ela, a Pivotal tem como meta incentivar as empresas a adotar soluções analíticas. Está nos planos a criação de um ambiente de desenvolvimento, oferta de consultoria em analytics e soluções de infraestrutura. A companhia também participa da comunidade Hadoop, plataforma para análise de dados de código aberto, desenvolvida pela Apache, e quer participar da OpenStack. “Buscamos ser referência global em Big Data”, aponta. 

No Brasil, a EMC também está plantando suas sementes. A empresa conta com um laboratório para Big Data no Centro de Pesquisa e Desenvolvimento (P&D) no Rio de Janeiro e está capacitando profissionais para atuar na área, por meio da Escola de Verão de Big Data.

O ferramental de Big Data da EMC inclui a plataforma Greenplum, que proporciona maior entendimento e geração de valor dos dados estruturados e não estruturados e o Isilon, família de storage para dados não estruturados, que permite o crescimento da infraestrutura de forma linear tanto para desempenho quanto para capacidade de armazenamento.

Separando o joio do trigo

Para o SAS, Big Data também leva em consideração variabilidade e complexidade. “Por variabilidade entende-se o fato de que a disponibilidade de informações está sujeita a ‘picos periódicos’ e a eventos. Em complexidade, há o desafio de gerenciar os dados, ou seja, integrar fontes de dados, desduplicar informações, atualizar dados e muito mais”, detalha Daniel Hoe, gerente de desenvolvimento de novos negócios do SAS Brasil.

Segundo ele, a estratégia do SAS para Big Data é levar ao mercado soluções de High-Performance Analytics que ajudam as empresas a lidar com quatro questões: gerenciamento da informação, visualização, analytics e opções diversas de implementação de solução, que incluem nuvem e appliances (hardware e software combinados para tarefas específicas).

Hoe acredita que em 2012 o termo Big Data se popularizou e ganhou relevância. “Isso é resultado de um fenômeno que teve impulso na última década: a queda dos preços de armazenamento de dados e a crescente informatização dos processos de negócios”, diz. Para 2013, a expectativa é que as empresas percebam o benefício do uso concreto dessa estratégia e aumentem a adoção de tecnologias de análise, gerenciamento e armazenamento.  

Seguradoras, operadoras de telecomunicações e bancos são as indústrias que mais vão apostar na tecnologia, segundo Hoe. Para conquistar o mercado, prossegue, o SAS fechou parceria com os principais fornecedores de bancos de dados de alta performance do mercado, como EMC Greenplum e Teradata para oferecer appliances de alta performance capazes de realizar tarefas de modelagem preditiva, estatística e data mining em memória (divisão de volumes menores de informações entre os processadores disponíveis, reduzindo para um minuto e meio o tempo de análise tradicional em disco que consumiria quatro horas).

Diógenes Santo, arquiteto de soluções da Teradata, destaca que as soluções da empresa são baseadas em SQL MapReduce, um framework desenvolvido pela Aster Data, empresa adquirida pela Teradata em 2011, que possibilita aumentar a capacidade de processamento para estratégias de Big Data, fornecendo insights a partir de fontes multi estruturadas de dados, que auxiliam a identificar tendências e oportunidades de mercado. 

Mas o que há de revolucionário nisso? “A tecnologia possibilita acesso a uma gama infinita de novas fontes de dados, que devido à dificuldade de análise, muitas vezes são inexploradas”, responde Santo.

Segundo ele, a Teradata conta com ferramentas de hardware e software para lidar com Big Data. “Estamos no mercado de appliances que executam o Hadoop e Aster Data dentro da mesma infraestrutura e isso é um diferencial. Nosso DNA é fazer análise de dados, por isso estamos à frente no trabalho com Big Data”, assegura.

A Teradata conta com o Aster Big Analytics Appliance, solução unificada para análise de grandes quantidades de dados que reúne, em um appliance, o Aster Analytics e o Hadoop. A solução executa o trabalho de análise em um ambiente multi sistema, explica Santo. 

Para reforçar a atuação em Big Data, nos últimos anos a Teradata investiu 800 milhões de dólares na aquisição de empresas do setor. Aprimo, Aster Data Systems e eCircle estão na lista de compras. Recentemente, a fabricante também passou a trabalhar em estreita parceria com a Hortonworks, empresa que atua na promoção do desenvolvimento da plataforma Apache Hadoop. “Agora ficou mais fácil desenhar uma solução para Hadoop que é simples de ser utilizada. Assim, complementamos a capacidade analítica de nossas soluções”, assinala o executivo. 

Santo diz que em 2012, a busca por Big Data foi mais conceitual. “A frase que mais ouvimos no ano passado foi ‘me explica o que é Big Data’. Foi um movimento inicial e incipiente”, relata. “Em 2013, certamente teremos algumas provas de conceito e clientes no Brasil. Mas somente em 2014 acredito que será, de fato, o ano do Big Data”, opina.

Nova era

Colin Mahony, vice-presidente e gerente geral da HP Vertica, acredita que, assim como outras transformações da TI no passado – como a chegada do mainframe, a mudança cliente/servidor, e a internet - Big Data cria oportunidades para todo tipo de companhia. “Estudos mostram que para cada dólar gasto com análise é possível obter 20 dólares de retorno”, contabiliza.

O sucesso da iniciativa, no entanto, depende de pensar na estratégia além da tecnologia. “Nunca implemente a tecnologia pela tecnologia. Foque no business case e nos desafios de negócios. Identifique ainda onde a empresa quer chegar com Big Data”, aconselha. “Não pegue carona no hype”, completa.

Para ampliar capacidades de análises em suas ferramentas, a HP comprou em 2011 a Vertica, empresa dedicada ao software de data warehouse e análise de dados de negócios. “Os diferenciais da nossa plataforma, a Vertica Analytics Platform, são velocidade, performance e escalabilidade. Estamos sempre simplificando análises para tornar os trabalhos mais fáceis”, etalha. “Uma das razões pelas quais a HP comprou a Vertica foi para poder olhar para as áreas de segurança, cloud e dados”, completa. “Há poucos fabricantes que podem de verdade dizer que têm um arsenal completo para lidar com Big Data, porque envolve expertise, hardware, software etc. Temos tudo isso”, garante. 

No Brasil, Mahony explica que a HP está trabalhando em oportunidades nos setor de óleo e gás, telecomunicações e mídia. A boa notícia das implementações de Big Data, diz ele, é que as empresas não precisam jogar fora o investimento em infraestrutura para suportar o novo cenário. Sistemas legados ainda têm valor e eles podem se integrar com tecnologias atuais de Big Data.

A Oracle também reforçou seu plano para ajudar empresas de diferentes segmentos a obter vantagem competitiva por meio de dados estratégicos. Fábio Elias, diretor de arquitetura de soluções de tecnologia e Big Data da Oracle do Brasil, afirma que em fevereiro a empresa de Larry Ellison iniciou um treinamento com parceiros para que eles promovam tecnologias nessa área. “Também estamos atuando em cooperação com algumas instituições de ensino para trazer soluções aos problemas que vivemos no dia a dia. Um dos desafios é encontrar plataformas para suportar esses projetos de pesquisa”, diz.

De acordo com Elias, o Oracle Big Data Appliance é um dos componentes da solução da fabricante. Big Data, prossegue, tem alguns estágios. O appliance se encaixa no primeiro: o de aquisição da informação. O segundo componente é o banco de dados Oracle. O Oracle Exadata Database Machine, combinação de hardware e software, entra na parte de organização para fazer modelagem e promover inteligência aos dados. A terceira camada é o Oracle Exalytics In-Memory Machine, que tem BI em memória e leva velocidade de análise diante de montanha de informações.

“Trata-se de uma solução de ponta a ponta, já integrada, que facilita e leva simplicidade à implementação. Para se ter uma ideia, em um projeto tradicional de Big Data, uma empresa tem de lidar com 1,8 mil cabos e mais 1,5 mil horas de trabalho. Com nossa solução, pré construída e pré configurada, são necessários 48 cabos e cerca 40 horas de trabalho”, compara. “O objetivo é fazer a companhia focar na geração de insights para os negócios e não se preocupar com a instalação.”

Ele conta que grande parte do investimento de 5 bilhões de dólares em pesquisa e desenvolvimento (P&D), aplicado no ano fiscal 2013, que acaba em maio deste ano, vai ser direcionado para iniciativas de Big Data. 

“Desenvolvemos diversos conectores para ligar ao Exadata. Todos eles estão habilitados para conversar com bancos de dados tradicionais. Mais de 50% das empresas no Brasil usam banco de dados Oracle e temos conectores prontos para integrar com informações de sistemas que elas já possuem”, destaca.

A Oracle também tem realizado aquisições para reforçar seu potencial analítico, diz. A Endeca, fornecedora de soluções para gestão de dados não estruturados, web commerce e BI, foi a mais recente. 

Elias aponta que, atualmente, a Oracle está em conversas avançadas com cerca de 20 empresas no Brasil para dar início a projetos de Big Data. Indústrias como telecom, bancos, seguradoras e e-commerce estão de olho nas soluções, diz, sem, no entanto, citar nomes.

Big Data está na moda e será um marco na história da TI, sentencia Flavio Bolieiro, vice-presidente para América Latina da MicroStrategy, fornecedora de software de BI. Para ele, entretanto, o desafio ainda está em entender o que há por trás de dados não estruturados, como as redes sociais e sensores de aparelhos. “As empresas começam a analisar dados do Facebook e Twitter, por exemplo, mas a intenção é mapear o sentimento dos seguidores em relação à marca e não estabelecer estratégias futuras com base em informações”, acredita.

A indústria, prossegue, conta com soluções para enxergar além dos dados estruturados, mas ainda há um longo caminho para esmiuçar os não estruturados. “Estamos nos movimentando para aprimorar as capacidades de ajudar na compreensão daquilo que vem das redes sociais e de outras fontes não estruturadas”, conta. 

Bolieiro diz que a MicroStrategy lançou no ano passado o Wisdom, aplicação analítica gratuita em nuvem que possibilita a exploração de uma ampla gama de informações demográficas e psicográficas contidas nos perfis do Facebook. “A tendência é que as empresas conquistem um nível de maturidade e analisem dados dos clientes para tirar valor”, observa.

A tecnologia foi usada para monitorar dados durante a campanha presidencial nos Estados Unidos. A análise, que reuniu informações de mais de 3,5 milhões de perfis no Facebook, descobriu, por exemplo, que na cidade de Granite, localizada no Estado de Illinois, 31% dos eleitores que “curtiram” ao menos uma página política an rede social, eram fãs de Mitt Romney. 

O jornal norte-americano The Washington Post também empregou o Wisdom para identificar as pessoas com perfil na rede social que “curtem” os principais candidatos republicanos e elaborou um ranking com os livros, músicas e esportes que atraem cada um dos seguidores desses candidatos. “Este ano, vamos lançar dois produtos [Alert e Usher] que vão ao encontro do Big Data para que empresas pensem próativamente nas redes sociais”, conta.

Com essas novidades, Bolieiro diz que a meta é conquistar mais clientes em todo o mundo. Segundo ele, 40% da base de clientes mundiais da MicroStrategy atualmente conta com soluções de Big Data. No Brasil, o número é um pouco menor.

A fabricante também se reestruturou para melhor posicionar a oferta de Big Data e facilitar o acesso de empresas. “Agora atuamos por produtos. Antes era somente por vertical. Contamos ainda com mais de 30 profissionais no Brasil para lidar com o tema”, relata.

O cardápio de Big Data é vasto e tende a crescer cada vez mais. Com a indústria aprimorando tecnologias e conquistando empresas de diferentes segmentos, os negócios têm grandes oportunidades de ganhar competitividade analisando seus dados e seus consumidores. Na cadeia de valor, também ganha o cliente, cada vez mais exigente sobre qualidade e velocidade de oferta. 

cio.uol.com.br

Escrever um comentário (0 Comentários)