O verdadeiro desafio do Big Data

Chegou a hora de se concentrar na aplicação prática da tecnologia e suas implicações para que a TI se beneficie da explosão de dados.

Nos últimos tempos, têm aumentado as discussões em torno de Big Data. A realidade, no entanto, é que muitas empresas já lidam com essa questão há muito tempo, bem antes desse termo ter virado moda e um jargão repetido à exaustão por fornecedores. Na prática, Big Data resume um conceito de explosão de dados de uma maneira não estruturada e de forma incontrolável e a necessidade de transformar esses dados em informações que possam ser utilizadas para direcionar os negócios e as estratégias da corporação, para apoiar o processo de tomada de decisões e minimizar riscos.

Apesar do conceito já estar bastante disseminado, ele ainda não reflete a realidade de 95% das empresas na América Latina e está longe de um entendimento prático por parte dos times de TI. Por conta disso, as discussões devem fugir dos jargões de marketing para se concentrar na aplicação prática de Big Data e suas implicações para que a TI se beneficie e surfe essa onda da explosão de dados.

Dentro dessa discussão, um recente evento discutiu como as empresas têm conseguido se beneficiar, na prática, dos ambientes de mídias sociais para geração de dados e transformação dos mesmos em vantagem competitiva para o negócio. Uma das conclusões foi a de que, em vez de utilizar o tradicional ROAS (Return On Advertising Spending ou, em português, Retorno do Investimento em Propaganda), é possível medir praticamente em tempo real o impacto nas redes sociais da exposição de marca ou de uma campanha específica. O que mostra como dados não estruturados podem ser transformados em informação de qualidade.

Mas o que é informação? De acordo com o Dicionário Contemporâneo da Língua Portuguesa, informação vem do latim, da palavra informatio,onis (delinear, conceber ideia). Ou seja, significa dar forma às ideias. E, se considerarmos que a TI significa Tecnologia da Informação é fundamental que o time de TI participe de forma ativa em todo o processo de geração e coleta de dados, transformando dados em informações e, estas últimas, em ativo da empresa.

Para que o processo funcione é necessário ter uma estrutura de coleta e armazenamento de dados, mantê-los em um ambiente seguro e transformá-los em informação, dentro de um ambiente redundante e com disaster recovery (recuperação de desastres). Parece óbvio, não? Não. A prática é que poucas empresas têm uma postura ativa de monitoração de data centers, um plano adequado de recuperação de desastres e um banco de dados com performance adequada ao ambiente atual e ao crescimento dos negócios.

E existe ainda mais um ponto que precisa ser considerado pelas empresas e que requer atenção máxima: como proteger essas informações geradas. Uma estrutura eficiente de firewalls, controle de acesso e gestão da conformidade dos elementos de TI às normas da empresas - quando existem -, são parciais. As ferramentas de segurança poucas vezes são consistentes com os desafios que evoluem dia-a-dia nas organizações.

A escolha de uma solução que cubra os elementos de proteção necessários em um ambiente de TI que atua com Big Data evita sérios problemas para as organizações, como os casos recentes de vazamento de informações, vivenciados por empresas como o Target e Playstation. Nesse contexto, é importante filtrar na origem quais informações são de fato confiáveis no momento em que entram na rede corporativa e avaliar conteúdos lícitos com a profundidade devida em busca de ameaças camufladas ou enxertadas. Aí, um bom firewall se faz necessário para controlar de forma granular.

Em resumo, quando aborda Big Data, o departamento de TI deve poder cobrir todos os elementos para gestão e segurança dos dados e trazer uma abordagem orientada ao negócio, a fim de suportar as oportunidades. Na prática, quando isso não acontece, as empresas perdem oportunidades de aumentar lucro, economia e evitar, de forma proativa, armadilhas do dia-a-dia da operação.

(*) Tulio Werneck é Diretor de Marketing para América Latina da Dell Software

cio.com.br

Escrever um comentário (0 Comentários)

Os benefícios do BI que toda empresa deveria conhecer

Os benefícios do Business Intelligence que toda empresa deveria conhecer

É interessante observar as companhias e perceber que nem sempre o óbvio é difundido. São poucas que largam na frente quando o assunto é inovação e investimento tecnológico. Muitas demoram para conceber e acreditar no retorno que estas soluções podem proporcionar. 

Várias empresas que apostaram nos benefícios do Business Intelligence (BI) com certeza puderam desfrutar desse retorno afirmativo nos processos e resultados organizacionais. Mas quais são esses benefícios que todas as organizações precisam conhecer? Por que o BI deveria ser adotado pela maioria das empresas? Compensa o investimento?

Essas perguntas pairam na cabeça da alta gestão que, normalmente, são céticas a qualquer grande mudança na organização, ainda mais quando o objeto em questão tem impacto na cultura de empresa, nos processos e no modo de tomar as decisões. Decisões estas que passam a ter maior embasamento e muito mais transparência aos olhos dos analistas de negócios, gestores e conselheiros.

Os benefícios do BI vão desde a tomada de decisão de forma mais pautada, como também:

  • Minimização de riscos;
  • Utilização de fatos ao invés de achismos;
  • Velocidade nas respostas corporativas;
  • Visualização das tendências;
  • Diminuição dos custos;
  • Aumento dos lucros.

A tomada de decisão é mais pautada devido ao subsídio que a informação fornece aos gestores, que muitas vezes se baseiam por decisões estabelecidas através de diálogos e intuições. Isso também favorece a minimização dos riscos, pois já que a decisão tem respaldo nos acontecimentos, o risco da decisão é imensamente menor.

A utilização de fatos ao invés da subjetividade (que as vezes prevalece em uma estrutura organizacional vertical) permite manter bom senso nas decisões gerenciais. Dessa forma cria-se uma cultura de transparência entre os colaboradores, além de transmitir confiança e solidez.

As perguntas que antes duravam dias ou semanas para serem respondidas, agora duram segundos ou no máximo alguns minutos. Isto porque a estrutura do BI é arquitetada para possibilitar facilidade de uso e também proporcionar rapidez nas repostas.

Outra coisa importante do BI é a previsão dos acontecimentos futuros através das tendências apontadas pelas informações. Isso permite à empresa se antever aos acontecimentos e estar preparada para os desafios futuros de forma proativa. 

A diminuição de custos se deve ao monitoramento e gestão dos gastos. Custos com viagem, cursos, equipamentos e salário, por exemplo, são facilmente analisados e administrados pela ferramenta adequada de BI. 

Todas essas características benéficas do BI têm participação crucial no aumento das receitas da organização. Elas permitem a preparação para focar diretamente no principal objetivo na maioria das empresas, que é a geração de lucros.

Portanto é importante que as organizações não subestimem a potencialidade que uma solução de BI pode fornecer. Sem dúvidas são benefícios que no dia a dia fazem a diferença no que tange ao alcance de metas, aumento dos lucros e satisfação dos clientes. Por isso, devemos ficar atentos para não perdermos a oportunidade de impulsionar os negócios através dessa poderosa solução chamada BI.

Canaltech.com.br

Escrever um comentário (0 Comentários)

Dez principais motivos para o fracasso do BI

 Muitos dos promissores projetos de Business Intelligence falham na metade do caminho. Não raramente, o desempenho dos sistemas não consegue acompanhar a demanda dos usuários finais

Muitos dos projetos de Business Intelligence terminam em fracasso.  Na maioria dos casos, dois fatores são apontados como os grande vilões. Um deles é a necessidade das empresas filtrarem um volume maior de informações de acordo com quesitos bastante específicos (relevantes para o negócio) o que faz aumentar a complexidade da pesquisa no sistema de BI. Ainda é necessário adequar o desenvolvimento de hardware e de software, que em passos mais lentos que essa demanda.

Além disso, vivemos em uma época na qual  - acostumados a fazer pesquisas no Google, por exemplo – os usuários desejam obter respostas rápidas. Tal velocidade, imprime nos sistemas internos a pressão de responder na hora, pois poucos usuários ainda toleram sistemas lentos. O retardo nas repostas leva a um só comportamento por parte do usuário final: o abandono da plataforma de informações. Prejuízo certo para a corporação que desembolsou uma quantia razoável pela solução.

O resultado do desastre é uma opulência de tabelas do Excel transitando pela corporação em silos desorganizados.

Baseando-se nos anos de experiência e em diversos debates com profissionais de TI e de unidades de negócio de centenas de empresas, a Information Builders identificou 10 razões mais frequentes do fracasso das implementações de BI.

1. Requisitos pouco claros

Depois que as unidades de negócio e o departamento de TI concordam que a sua empresa necessita de um sistema de reporting e de análise dos dados de negócio, o próximo grande passo é definir os indicadores-chave do desempenho (KPIs) para uma gestão empresarial eficaz. Contudo, em vez da definição destes indicadores, muitas empresas usam as aplicações de BI meramente para confirmar o que faziam anteriormente no Excel e, depois, questionam-se porque os seus relatórios são apenas um pouco melhor do que os anteriores.

2. Dados incorretos ou incompletos

Por mais persuasivo que o design da aplicação de BI possa ser, as pesquisas iniciais sobre a informação requerida em vastas fontes de dados durante um teste podem revelar que os dados estão desatualizados, têm erros ou (ainda) estão inacessíveis. Dados com pouca qualidade são uma causa frequente de grandes problemas nos projetos de BI. As lacunas, por vezes, também se revelam na utilização diária, quando se trabalha com dados que mudam frequentemente.

3. Usuários finais envolvidos tardiamente

Quando se implementa um projeto de BI, é essencial que se inclua colaboradores das unidades de negócio que irão trabalhar com a aplicação final já nas fases iniciais do projeto. Se a aplicação não está em sintonia com os seus inputs, o projeto provavelmente encontrará  considerável resistência. Se, no mínimo, poucos utilizadores tiverem a oportunidade de trabalhar com o primeiro produto acabado, então o próximo trabalho de projeto poderá incluir as suas experiências.

4. Resultados apresentáveis apenas após dois anos

Muitas vezes, as empresas tentam abordar todos os requisitos concebíveis de BI em um projeto a longo prazo. Enquanto uma abordagem estratégica é sempre correta, os problemas podem surgir se a equipe do projeto insistir em, inicialmente, manter o seu trabalho “em segredo”. Quando a equipe apresenta os seus primeiros resultados após dois anos, é altamente provável que estes se desviem significativamente das suas expectativas iniciais. É muito mais promissor se levarem dois ou três meses para apresentar módulos acabados que possam provar a sua adequação às operações diárias.

5. Falta de gestão da mudança

Mudanças e ajustes às especificações e objectivos originais existirão em qualquer projeto de BI. Contudo, em muitos casos, inexistem uma equipe de gestão formal das mudanças que definam como os novos requisitos serão incorporados ao projeto existente e um responsável pela sua aprovação. A falta de uma gestão de mudanças resulta rapidamente em custos adicionais e em atrasos na conclusão do projeto.

6. Cumprimento e segurança negligenciados

O número de disposições e regulamentações legais têm aumentado continuamente nos últimos anos, e as disposições de privacidade tornaram-se mais rigorosas. As equipes de projeto raramente têm em conta as normas, as regras e os conceitos de segurança, desde o início, ao fazerem disposições para integrar futuras mudanças o mais facilmente possível. Por exemplo, deverá ser necessário dar acesso aos usuários às aplicações e aos dados no futuro.

cio.com.br

Escrever um comentário (0 Comentários)

Companies using Hadoop for analytics

Companies using Hadoop for analytics bring meaning to satellite data
There is a tremendous amount of information stored in satellite imaging data, but discoverability is a persistent problem. The way in which images are processed and indexed can make it difficult for users to search through databases for meaningful information. But companies using Hadoop for analytics are helping to make this data more relevant.
Skybox Imaging is one company working to apply analytics to satellite images to leverage the data they contain. The company builds and operates high-resolution imaging satellites and makes the images, as well as data, available to customers. The image data can tell users the speed of a container ship as it moves through a waterway, the completion percentage of a construction project or how many empty spaces are in a parking lot.
To accomplish this is no small feat. Skybox aerospace engineer and vice president of product development Julian Mann said the data pulled out of their satellites wouldn't be recognizable to the average user on its own.
"If you took a single frame that came off the camera and tried to open it up in any imaging software that you might have on your computer, you wouldn't be able to see anything," Mann said. "It's a very raw sensory output."
Things get interesting when the company starts to organize and make sense of the data. Skybox partnered with Cloudera to implement their distribution of Hadoop. The software framework is necessary to handle the data-intensive nature of satellite imaging, Mann said. Skybox customers can then embed their own algorithms in the company's platform and use the analytics engine to crunch the data for their own purposes. Agriculture clients can monitor crop yields. Shipping and supply chain companies can monitor vehicles. Oil and gas companies can evaluate land areas. All of this is based on looking for changes in imaging data by using Hadoop for analytics.
The availability of satellite images isn't necessarily new, but the ability to study changes is, and the implementation of Hadoop into image databases enables it. Mann said this is what allows users to assemble data, normalize it, index it and make meaningful connections. The satellite imaging industry may be generating up to 15 petabytes of data per year within the next four years, he said. It takes a strong analytics engine like Hadoop to organize and make sense out of all this data.
This explosion of data is putting pressure on imaging and location intelligence companies to find ways to manage it all, but there are ways around putting too many internal resources toward database management operations. Mann said this is why Skybox chose to partner with Cloudera. The arrangement allowed Skybox to focus on the things it's good at, like analyzing geospatial sensing data, while letting Cloudera handle the things it have more expertise at, such as implementing Hadoop, he said.
While it may be good for companies engaging in heavy analytics to have staff members who understand databases, Mann said it is not necessary to devote resources to nuts-and-bolts implementation steps when there are vendors out there who are willing to do these tasks. Contracting out these pieces allows businesses to leverage analytics to make meaningful business improvements rather than focusing on becoming experts at implementing Hadoop, Mann said.

techtarget.com

Escrever um comentário (0 Comentários)

O Big Data trilha o caminho da inteligência

Indústria movimenta-se para ajudar empresas a trilhar o caminho da inteligência sobre grandes volumes de dados.

Todos os dias, cerca de 15 petabytes de dados estruturados e não estruturados são gerados, segundo projeções da IBM. Essa montanha de informações inclui mensagens trocadas a partir de dispositivos móveis, e-mails, fotos, vídeos, compras pela web, planilhas, textos, vídeos e outros. Para colocar em perspectiva, com apenas um petabyte, segundo cálculos de mercado, é possível armazenar mais de 114 mil horas de vídeo em HD, o mesmo que mais de 13 anos de programação contínua. Esse tsunami é uma grande oportunidade para o mundo corporativo, e representa desafio sem precedentes para a indústria da Tecnologia da Informação (TI), que aposta na oferta de ferramentas que ajudem as empresas a filtrar e modelar informações úteis para os negócios. 

Companhias estão diante de uma mina de ouro e começam agora a entender como forjar inteligência de negócios a partir dessa matéria-prima. É a era do Big Data que, segundo especialistas, bate à porta e deve ganhar impulso nos próximos anos, turbinada pelo crescimento do poder computacional e do surgimento de novas fontes geradoras de informação, como as redes sociais e a comunicação máquina a máquina (M2M). 

Big Data, no entanto, não se refere ao mero armazenamento de grandes volumes de dados. Volume + variedade + velocidade de geração de dados são os elementos que compõe o Big Data. O valor do conceito está na possibilidade de localizar, peneirar e analisar informações úteis a partir de diferentes fontes e em tempo real. Diferentemente do Business Intelligence (BI), que analisa o passado, a tecnologia prevê tendências futuras, balizando e agilizando as tomadas de decisão imediatas.

A indústria de TI, atenta ao potencial da solução para os negócios, está evoluindo suas ofertas para oferecer ao mercado tecnologias avançadas de Big Data. Ela se apoia em ferramentas analíticas que ajudem as companhias a reter clientes e a criar produtos em linha com seus desejos e necessidades. A proposta ambiciosa do Big Data é ajudar empresas a decidir com base em evidências e analisadas continuamente.

Dados espalhados pela organização, gerados pelos consumidores em mídias sociais ou por dispositivos móveis precisam ser colhidos, garimpados e moldados de acordo com as necessidades de negócios da empresa. 

A IBM investiu, nos últimos cinco anos, mais de 14 bilhões de dólares na compra de 24 companhias para reforçar as capacidades analíticas de suas tecnologias. Com a estratégia, batizada de Business Analytics, que inclui Big Data, a Big Blue pretende faturar 16 bilhões de dólares até 2015. “Temos um portfólio abrangente de tecnologias, que vai desde a coleta de dados de diversas fontes, passando por sistemas que analisam essa montanha de dados até o tratamento das informações em tempo real”, explica Cezar Taurion, gerente de Novas Tecnologias Aplicadas da IBM Brasil.

Ele diz que a fabricante também conta com serviços de consultoria e parcerias com universidades para formar talentos em Big Data, os chamamos cientistas de dados (leia mais na página 22). Por aqui, a capacitação para profissionais da área está chegando, mas nos Estados Unidos a empresa tem mais de 100 mil alunos inscritos na Big Data University, diz Taurion. 

“Estamos no início dessa era”, afirma. A desorganização ou até mesmo a falha em coletar as informações para analisar são barreiras que devem ser superadas. Taurion diz que a IBM está apostando no conceito de Smarter Storage, que reúne diversas tecnologias, para eliminar esses problemas. A abordagem permite que as companhias economizem até 47% do tempo usado na gestão do sistema, além de reduzir a complexidade em até 30%. 

Alguns casos experimentais em Big Data já podem ser observados, informa. Em Cingapura, a IBM implementou um sistema de previsão de congestionamento com sensores que se comunicam com dados históricos e relatos de obras em execução na cidade. Após análise dessa massa, é possível descobrir gargalos no trânsito. “No Rio de Janeiro, o Centro de Operações é capaz de descobrir, com 48 horas de antecedência, pontos potenciais de deslizamento de terra a partir da combinação de milhares de dados do sistema e topografia local”, exemplifica. Aí é que está o grande poder de Big Data, lembra, capturar dados, analisar e tomar decisões.

No mundo atual, diz Patricia Florissi, vice-presidente e diretora de Tecnologia das Américas, Europa, Oriente Médio e África (EMEA) da EMC, repleto de dados, não é mais viável verificar informações do passado e obter insights sobre o futuro manualmente. “É impossível realizar essa tarefa em banco de dados tradicional. Uma empresa não quer mais saber daqui a um mês o que aconteceu há 40 dias”, aponta.

Para ela, que mora nos Estados Unidos há mais de 20 anos, o Brasil apresenta condições econômicas para liderar iniciativas de Big Data em todo mundo. “Vejo o varejo e os bancos como os grandes usuários desse tipo de tecnologia”, destaca. “2013 vai marcar o ano da exploração de Big Data”, acredita. A ideia da micro segmentação de clientes, e não mais o tratamento por grupos, vai atrair a atenção das companhias.

Patricia afirma que há mais de três anos a EMC ingressou no universo de Big Data. “Identificamos que o volume de dados crescia a uma velocidade impressionante e criamos uma estratégia na área”, lembra. A jornada até Big Data incluiu a compra da VMware e Greenplum. Mais recentemente, em dezembro de 2012, juntou-se à VMware para criar a Pivotal Initiative, totalmente voltada para iniciativas de grandes quantidades de dados. “Essa nova divisão, que será uma empresa independente ainda neste ano, terá 1,5 mil pessoas totalmente focadas no tema.” 

Segundo ela, a Pivotal tem como meta incentivar as empresas a adotar soluções analíticas. Está nos planos a criação de um ambiente de desenvolvimento, oferta de consultoria em analytics e soluções de infraestrutura. A companhia também participa da comunidade Hadoop, plataforma para análise de dados de código aberto, desenvolvida pela Apache, e quer participar da OpenStack. “Buscamos ser referência global em Big Data”, aponta. 

No Brasil, a EMC também está plantando suas sementes. A empresa conta com um laboratório para Big Data no Centro de Pesquisa e Desenvolvimento (P&D) no Rio de Janeiro e está capacitando profissionais para atuar na área, por meio da Escola de Verão de Big Data.

O ferramental de Big Data da EMC inclui a plataforma Greenplum, que proporciona maior entendimento e geração de valor dos dados estruturados e não estruturados e o Isilon, família de storage para dados não estruturados, que permite o crescimento da infraestrutura de forma linear tanto para desempenho quanto para capacidade de armazenamento.

Separando o joio do trigo

Para o SAS, Big Data também leva em consideração variabilidade e complexidade. “Por variabilidade entende-se o fato de que a disponibilidade de informações está sujeita a ‘picos periódicos’ e a eventos. Em complexidade, há o desafio de gerenciar os dados, ou seja, integrar fontes de dados, desduplicar informações, atualizar dados e muito mais”, detalha Daniel Hoe, gerente de desenvolvimento de novos negócios do SAS Brasil.

Segundo ele, a estratégia do SAS para Big Data é levar ao mercado soluções de High-Performance Analytics que ajudam as empresas a lidar com quatro questões: gerenciamento da informação, visualização, analytics e opções diversas de implementação de solução, que incluem nuvem e appliances (hardware e software combinados para tarefas específicas).

Hoe acredita que em 2012 o termo Big Data se popularizou e ganhou relevância. “Isso é resultado de um fenômeno que teve impulso na última década: a queda dos preços de armazenamento de dados e a crescente informatização dos processos de negócios”, diz. Para 2013, a expectativa é que as empresas percebam o benefício do uso concreto dessa estratégia e aumentem a adoção de tecnologias de análise, gerenciamento e armazenamento.  

Seguradoras, operadoras de telecomunicações e bancos são as indústrias que mais vão apostar na tecnologia, segundo Hoe. Para conquistar o mercado, prossegue, o SAS fechou parceria com os principais fornecedores de bancos de dados de alta performance do mercado, como EMC Greenplum e Teradata para oferecer appliances de alta performance capazes de realizar tarefas de modelagem preditiva, estatística e data mining em memória (divisão de volumes menores de informações entre os processadores disponíveis, reduzindo para um minuto e meio o tempo de análise tradicional em disco que consumiria quatro horas).

Diógenes Santo, arquiteto de soluções da Teradata, destaca que as soluções da empresa são baseadas em SQL MapReduce, um framework desenvolvido pela Aster Data, empresa adquirida pela Teradata em 2011, que possibilita aumentar a capacidade de processamento para estratégias de Big Data, fornecendo insights a partir de fontes multi estruturadas de dados, que auxiliam a identificar tendências e oportunidades de mercado. 

Mas o que há de revolucionário nisso? “A tecnologia possibilita acesso a uma gama infinita de novas fontes de dados, que devido à dificuldade de análise, muitas vezes são inexploradas”, responde Santo.

Segundo ele, a Teradata conta com ferramentas de hardware e software para lidar com Big Data. “Estamos no mercado de appliances que executam o Hadoop e Aster Data dentro da mesma infraestrutura e isso é um diferencial. Nosso DNA é fazer análise de dados, por isso estamos à frente no trabalho com Big Data”, assegura.

A Teradata conta com o Aster Big Analytics Appliance, solução unificada para análise de grandes quantidades de dados que reúne, em um appliance, o Aster Analytics e o Hadoop. A solução executa o trabalho de análise em um ambiente multi sistema, explica Santo. 

Para reforçar a atuação em Big Data, nos últimos anos a Teradata investiu 800 milhões de dólares na aquisição de empresas do setor. Aprimo, Aster Data Systems e eCircle estão na lista de compras. Recentemente, a fabricante também passou a trabalhar em estreita parceria com a Hortonworks, empresa que atua na promoção do desenvolvimento da plataforma Apache Hadoop. “Agora ficou mais fácil desenhar uma solução para Hadoop que é simples de ser utilizada. Assim, complementamos a capacidade analítica de nossas soluções”, assinala o executivo. 

Santo diz que em 2012, a busca por Big Data foi mais conceitual. “A frase que mais ouvimos no ano passado foi ‘me explica o que é Big Data’. Foi um movimento inicial e incipiente”, relata. “Em 2013, certamente teremos algumas provas de conceito e clientes no Brasil. Mas somente em 2014 acredito que será, de fato, o ano do Big Data”, opina.

Nova era

Colin Mahony, vice-presidente e gerente geral da HP Vertica, acredita que, assim como outras transformações da TI no passado – como a chegada do mainframe, a mudança cliente/servidor, e a internet - Big Data cria oportunidades para todo tipo de companhia. “Estudos mostram que para cada dólar gasto com análise é possível obter 20 dólares de retorno”, contabiliza.

O sucesso da iniciativa, no entanto, depende de pensar na estratégia além da tecnologia. “Nunca implemente a tecnologia pela tecnologia. Foque no business case e nos desafios de negócios. Identifique ainda onde a empresa quer chegar com Big Data”, aconselha. “Não pegue carona no hype”, completa.

Para ampliar capacidades de análises em suas ferramentas, a HP comprou em 2011 a Vertica, empresa dedicada ao software de data warehouse e análise de dados de negócios. “Os diferenciais da nossa plataforma, a Vertica Analytics Platform, são velocidade, performance e escalabilidade. Estamos sempre simplificando análises para tornar os trabalhos mais fáceis”, etalha. “Uma das razões pelas quais a HP comprou a Vertica foi para poder olhar para as áreas de segurança, cloud e dados”, completa. “Há poucos fabricantes que podem de verdade dizer que têm um arsenal completo para lidar com Big Data, porque envolve expertise, hardware, software etc. Temos tudo isso”, garante. 

No Brasil, Mahony explica que a HP está trabalhando em oportunidades nos setor de óleo e gás, telecomunicações e mídia. A boa notícia das implementações de Big Data, diz ele, é que as empresas não precisam jogar fora o investimento em infraestrutura para suportar o novo cenário. Sistemas legados ainda têm valor e eles podem se integrar com tecnologias atuais de Big Data.

A Oracle também reforçou seu plano para ajudar empresas de diferentes segmentos a obter vantagem competitiva por meio de dados estratégicos. Fábio Elias, diretor de arquitetura de soluções de tecnologia e Big Data da Oracle do Brasil, afirma que em fevereiro a empresa de Larry Ellison iniciou um treinamento com parceiros para que eles promovam tecnologias nessa área. “Também estamos atuando em cooperação com algumas instituições de ensino para trazer soluções aos problemas que vivemos no dia a dia. Um dos desafios é encontrar plataformas para suportar esses projetos de pesquisa”, diz.

De acordo com Elias, o Oracle Big Data Appliance é um dos componentes da solução da fabricante. Big Data, prossegue, tem alguns estágios. O appliance se encaixa no primeiro: o de aquisição da informação. O segundo componente é o banco de dados Oracle. O Oracle Exadata Database Machine, combinação de hardware e software, entra na parte de organização para fazer modelagem e promover inteligência aos dados. A terceira camada é o Oracle Exalytics In-Memory Machine, que tem BI em memória e leva velocidade de análise diante de montanha de informações.

“Trata-se de uma solução de ponta a ponta, já integrada, que facilita e leva simplicidade à implementação. Para se ter uma ideia, em um projeto tradicional de Big Data, uma empresa tem de lidar com 1,8 mil cabos e mais 1,5 mil horas de trabalho. Com nossa solução, pré construída e pré configurada, são necessários 48 cabos e cerca 40 horas de trabalho”, compara. “O objetivo é fazer a companhia focar na geração de insights para os negócios e não se preocupar com a instalação.”

Ele conta que grande parte do investimento de 5 bilhões de dólares em pesquisa e desenvolvimento (P&D), aplicado no ano fiscal 2013, que acaba em maio deste ano, vai ser direcionado para iniciativas de Big Data. 

“Desenvolvemos diversos conectores para ligar ao Exadata. Todos eles estão habilitados para conversar com bancos de dados tradicionais. Mais de 50% das empresas no Brasil usam banco de dados Oracle e temos conectores prontos para integrar com informações de sistemas que elas já possuem”, destaca.

A Oracle também tem realizado aquisições para reforçar seu potencial analítico, diz. A Endeca, fornecedora de soluções para gestão de dados não estruturados, web commerce e BI, foi a mais recente. 

Elias aponta que, atualmente, a Oracle está em conversas avançadas com cerca de 20 empresas no Brasil para dar início a projetos de Big Data. Indústrias como telecom, bancos, seguradoras e e-commerce estão de olho nas soluções, diz, sem, no entanto, citar nomes.

Big Data está na moda e será um marco na história da TI, sentencia Flavio Bolieiro, vice-presidente para América Latina da MicroStrategy, fornecedora de software de BI. Para ele, entretanto, o desafio ainda está em entender o que há por trás de dados não estruturados, como as redes sociais e sensores de aparelhos. “As empresas começam a analisar dados do Facebook e Twitter, por exemplo, mas a intenção é mapear o sentimento dos seguidores em relação à marca e não estabelecer estratégias futuras com base em informações”, acredita.

A indústria, prossegue, conta com soluções para enxergar além dos dados estruturados, mas ainda há um longo caminho para esmiuçar os não estruturados. “Estamos nos movimentando para aprimorar as capacidades de ajudar na compreensão daquilo que vem das redes sociais e de outras fontes não estruturadas”, conta. 

Bolieiro diz que a MicroStrategy lançou no ano passado o Wisdom, aplicação analítica gratuita em nuvem que possibilita a exploração de uma ampla gama de informações demográficas e psicográficas contidas nos perfis do Facebook. “A tendência é que as empresas conquistem um nível de maturidade e analisem dados dos clientes para tirar valor”, observa.

A tecnologia foi usada para monitorar dados durante a campanha presidencial nos Estados Unidos. A análise, que reuniu informações de mais de 3,5 milhões de perfis no Facebook, descobriu, por exemplo, que na cidade de Granite, localizada no Estado de Illinois, 31% dos eleitores que “curtiram” ao menos uma página política an rede social, eram fãs de Mitt Romney. 

O jornal norte-americano The Washington Post também empregou o Wisdom para identificar as pessoas com perfil na rede social que “curtem” os principais candidatos republicanos e elaborou um ranking com os livros, músicas e esportes que atraem cada um dos seguidores desses candidatos. “Este ano, vamos lançar dois produtos [Alert e Usher] que vão ao encontro do Big Data para que empresas pensem próativamente nas redes sociais”, conta.

Com essas novidades, Bolieiro diz que a meta é conquistar mais clientes em todo o mundo. Segundo ele, 40% da base de clientes mundiais da MicroStrategy atualmente conta com soluções de Big Data. No Brasil, o número é um pouco menor.

A fabricante também se reestruturou para melhor posicionar a oferta de Big Data e facilitar o acesso de empresas. “Agora atuamos por produtos. Antes era somente por vertical. Contamos ainda com mais de 30 profissionais no Brasil para lidar com o tema”, relata.

O cardápio de Big Data é vasto e tende a crescer cada vez mais. Com a indústria aprimorando tecnologias e conquistando empresas de diferentes segmentos, os negócios têm grandes oportunidades de ganhar competitividade analisando seus dados e seus consumidores. Na cadeia de valor, também ganha o cliente, cada vez mais exigente sobre qualidade e velocidade de oferta. 

cio.uol.com.br

Escrever um comentário (0 Comentários)

Qual é o perfil do profissional de Big Data?

Novos empregos serão criados por causa de Big Data, mas as chances não são para todos. Veja o que os empregadores buscam no especialista da área.

Tecnologias de Big Data estão em ascensão, sentenciam analistas do mercado. Esse cenário está ajudando a criar grandes oportunidades de carreira para profissionais de TI, mas as chances não são para todos.

De acordo com um relatório publicado em 2011 pela consultoria McKinsey & Co., os Estados Unidos podem enfrentar, em 2018, uma escassez de 140 mil a 190 mil pessoas com “talentos analíticos profundos” e de 1,5 milhão de pessoas capazes de estudar dados para tomar decisões de negócios. O quadro se repete em solo nacional. 

As empresas estão (e vão continuar) procurando profissionais com um conjunto complexo de habilidades para concretizar a promessa de Big Data de promover vantagem competitiva. “Não há dúvidas de que o talento é o primeiro requisito para as empresas que levam a sério a obtenção de vantagem competitiva utilizando dados e análises”, avalia Jack Phillips, CEO da empresa de pesquisa International Institute for Analytics (IIA), localizada nos Estados Unidos.

Mas o que deve reunir um talento em Big Data? Quais as competências necessárias para conquistar um emprego na área? Que tipo de formação qualifica uma pessoa para trabalhar no segmento?

“Não há unanimidade para o perfil do profissional de Big Data”, diz Sandeep Sacheti, ex-chefe do risco e análise do UBS Wealth Management, que agora ocupa o cargo de vice-presidente de pesquisas com consumidores e excelência operacional na Wolters Kluwer Corporate Legal Services, que atua na área jurídica.

Em seu novo emprego, Sacheti lida todos os dias com Big Data. Ele analisa grandes quantidades de dados para entender clientes, desenvolver produtos e reduzir custos operacionais. Em um dos projetos em curso, a divisão da Wolters que vende serviços de fatura eletrônica para escritórios de advocacia, usa análises para extrair dados que reúne de seus clientes (com a permissão deles) para criar produtos, incluindo o “Real Rate Report”, que compara taxas de escritórios de direito nos Estados Unidos. 

Sacheti busca agora profissionais para atuar na área e também treinamentos para sua equipe. Ele separa as oportunidades de Big Data em quatro vertentes: cientista dados, arquiteto de dados, visualizador de dados e agente de mudança de dados.

Ele lembra, no entanto, que não há padrão para os títulos dos cargos. O que uma empresa chama de analista de dados, por exemplo, pode ser definido de outra forma em diferentes companhias, constata John Reed, diretor-executivo sênior de pessoal de TI da Robert Half Technology, organização de recrutamento. O próprio cargo de Sacheti mostra que alguns profissionais não carregam o termo Big Data no título. 

“Todos perguntam: ‘Como identifico esse profissional? Quais habilidades devo procurar?’”, comenta Greta Roberts, CEO da Talent Analytics, que desenvolve software para ajudar os empregadores a correlacionar as competências dos trabalhadores e suas características para alavancar o desempenho dos negócios.

Roberts, Phillips e outros especialistas dizem que as habilidades mais citadas incluem conhecimentos em matemática, estatística, análise de dados, análise de negócios e processamento de linguagem. E, embora os títulos não sejam sempre os mesmos, alguns, como cientista de dados e arquiteto de dados estão tornando-se mais comuns.

Curiosidade faz a diferença

Segundo Josh Wills, diretor sênior de ciência dados da Cloudera, que vende e suporta a versão comercial do Hadoop (framework que gerencia Big Data), há uma tendência pela busca de talentos que tenham atuado como desenvolvedores de aplicativos e engenheiros de software, mais do que profissionais que trabalharam na operação de TI. 

Isso não quer dizer que especialistas em operações de TI não sejam necessários para a estratégia de Big Data. Afinal, eles desenham a infraestrutura e apóiam os sistemas de Big Data.

“É daí que saem os profissionais de Hadoop”, observa D.J. Patil, cientista de dados da Greylock Partners, empresa de capital de risco. “Sem eles, a empresa não pode fazer nada. Eles estão construindo infraestruturas impressionantes, mas não necessariamente fazem a análise”, completa.

Funcionários de TI podem aprender rapidamente sobre Hadoop por meio de aulas tradicionais ou autoaprendizagem, observa. Isso porque a maioria dos postos de trabalho emergentes em Big Data exige conhecimento de programação e capacidade de desenvolver aplicações e alinhamento com os negócios.

Patil é Ph.D. em matemática aplicada. Sacheti tem Ph.D. em agricultura e recursos econômicos. Patil acredita, no entanto, que atributos como curiosidade e criatividade importam mais para o profissional do que a própria área de estudo ou credencial acadêmica.

Wills, por exemplo, trilhou um caminho curioso até chegar à função de cientista dados. Depois de formar-se em matemática, partiu para uma pós-graduação em operações de pesquisa e conquistou um emprego no Google em 2007. Wills trabalhou no Google como estatístico e então como engenheiro de software antes de ingressar na Cloudera e assumir o posto de cientista de dados.

Procura-se tempero científico

Não faz muito tempo, curiosidade, criatividade e comunicação não eram pontos enfatizados em departamentos de TI. O IIA, afirma Phillips, vê o cientista de dados como aquele que reúne três importantes características: tecnológica (TI, hardware e software), quantitativa (estatística, matemática, modelagem e algoritmos) e de negócios (domínio da área). “Os profissionais bem-sucedidas têm o lado quantitativo aguçado”, observa. “Eles conhecem a tecnologia, mas não a executam. Eles dependem da TI”, avalia.

Big data também exige um tempero científico, destaca Wills. O talento da área precisa ser intelectualmente flexível o suficiente para mudar rapidamente seus pressupostos e abordagens diante dos problemas, diz Brian Hopkins, analista da Forrester Research. 

cio.uol.com.br

Escrever um comentário (0 Comentários)

Dez regras clássicas para implementar Business Intelligence com sucesso


É essencial aprender com os erros de outros para que o projeto não falhe.

No passado, as companhias gastavam muito dinheiro com BI, mas nem sempre conseguiam alcançar os resultados pretendidos. Prova disso, as reclamações dos usuários sobre a falta da qualidade dos dados e a dificuldade de utilização dos sistemas e ferramentas de BI, assim como relatórios incompletos ou dados imprecisos que impactam a tomada de decisões. Estas debilidades são causadas por fraquezas funcionais e organizacionais na implementação de projetos de Business Intelligence.

Particularmente com novos projetos de BI é essencial aprender com os erros de outros para que o novo projeto não falhe. A Information Builders compilou dez dicas de ouro para a implementação do BI.

1. Definir os requisitos funcionais

Comece por indicadores de desempenho (KPI – Key Performance Indicators), que são o centro de qualquer aplicação de BI. A equipe do projeto, composta por colaboradores do departamento de TI e de outros departamentos especializados, deve determinar que informação deve ser disponibilizada pelas aplicações de BI, quando é necessário estar disponível e em que formato.

2. Definir os grupos de utilizadores

A equipe do projeto deve definir quem são os utilizadores da solução de BI. Existem geralmente três grupos de utilizadores: utilizadores gerais de relatórios; os produtores e analistas que avaliam os dados; e finalmente os gestores que decidem os objetivos

3. Envolver os utilizadores numa fase inicial

Na fase inicial, o departamento de TI deve criar um protótipo simples da solução. Desta forma, pode ser feita uma revisão assegurar que os requisitos essenciais serão incluídos desde o início. Na implementação de um projecto de BI, os colaboradores dos departamentos especializados devem sempre ser incluídos paralelamente, uma vez que são esses indivíduos que, no futuro, irão trabalhar com as aplicações. Quando se testar o protótipo, esses colaboradores podem determinar se o projeto segue o escopo.

4. Ter apoio da Gestão

A equipe do projeto deve ter apoio da gestão. Esta é a única forma de garantir que os objetivos corporativos a curto e longo prazo sejam incorporados. A implementação é monitorizada pela comparação de indicadores de desempenho (KPI) permanentes dos rácios operacionais mais importantes.

5. Identificar os Indicadores de Desempenho (KPI) requeridos

São necessários valores operativos a gestão dos processos de uma companhia. A equipa de projecto deve defini-los em conjunto com o departamento especialista. No manuseamento e produção de materiais, por exemplo, indicadores de desempenho tais como “custo do material por cada componente” ou “volume de negócio por colaborador” são variáveis provadas. Isto torna mais fácil determinar se os objetivos foram alcançados ou não.

6. Garantir a integração e qualidade dos dados

Integração dos dados é um fator decisivo o sucesso de um projeto de BI. A equipe deve identificar os sistemas operacionais nos quais a informação requerida está disponível e como os dados devem ser acessados. informação atualizada, o acesso direto é a melhor opção. Se a qualidade dos dados brutos não for suficiente, isso deverá ser melhorado com as ferramentas de software apropriadas acessar todas as fontes de dados.

7. Descubra que ferramentas de BI já estão disponíveis na empresa

Quando um novo projeto é iniciado, é necessário determinar se as ferramentas existentes os usuários finais devem continuar a ser utilizadas ou se devem ser substituídas completamente. Na maioria dos casos, a padronização num único sistema de BI é preferível garantir consistência na disponibilização da informação dentro da empresa.

8. Escolher o Software de BI correto

Com uma Proof-of-Concept (PoC), a equipe de projeto decide o software mais adequado, baseando-se geralmente  em um briefing específico. Este procedimento permite à equipe de projeto garantir com maior grau de certeza de que o software se adequa ao seu negócio.

9. Limitar o tempo de execução do projeto

Aqui aplica-se a velha regra: “Tudo o que dure mais que seis meses deixa de ser um projeto e passa a ser um problema.” Quando se implementa um novo projeto de BI, os departamentos especializados devem estar centrados e proceder em claros passos definidos. Os subprojetos devem ser desenvolvidos que os primeiros módulos executáveis e operacionais estejam disponíveis depois de dois ou três meses.

10. Um projeto de BI é um processo constante

Os requisitos das companhias mudam constantemente e o mesmo se aplica a uma aplicação de BI. Todas as soluções de BI têm de ser continuamente desenvolvidas e otimizadas em uma base permanente. Esta é a única forma que têm de cumprir os requisitos

“O BI é, antes de tudo, uma tarefa de controle, compras, marketing e vendas. Os departamentos de negócio estão familiarizados com os requisitos individuais em termos de gestão da performance funcional e sabem que parâmetros e dados necessitam controlar os seus processos de negócio”, afirma Klaus Hofmann zur Linden, Technical Manager da Information Builders. “O departamento de TI deve construir a infra-estrutura as aplicações de BI e assegurar uma operação de confiança”.

cio.uol.com.br

Escrever um comentário (0 Comentários)