Business Intelligence & Business Analytics Tags

10 posições de TI mais difíceis de serem preenchidas

Dos profissionais de segurança cibernética aos engenheiros de DevOps, o relatório 2018 State of the CIO revela quais funções de TI continuam com demanda bem superior à oferta.

Melissa Person-Ashforth

CEO da Melissa International

"Encontrar e reter talentos de TI exige que as organizações pensem fora da caixa e se concentrem menos em encontrar a contratação perfeita e mais em manter os candidatos e funcionários atuais engajados, motivados e ansiosos para aprender novas habilidades. Para mim, claro, é sobre encontrar as habilidades certas, mas também saber que tratar bem meus funcionários, compensando-os e recompensando-os, significa que mantê-los felizes."

O relatório State of the do CIO de 2018 concluiu que, após anos de discórdia, a TI e as áreas de negócio estão finalmente aprendendo a trabalhar juntas para conduzir iniciativas estratégicas e atingir metas compartilhadas. Para fazer isso, é claro, as organizações precisam de talento em TI - mas alguns papéis são mais difíceis de preencher do que outros.

Os trabalhos relacionados à tecnologia de ponta, como Inteligência Artificial, Machine Learning e Realidade Virtual são tão especializa dos que os programas educacionais não conseguem acompanhar as demandas de pipeline, enquanto outros, como nuvem, desenvolvimento de aplicativos e software corporativo, simplesmente têm demanda excessiva.

Encontrar e reter talentos de TI exige que as organizações pensem fora da caixa e se concentrem menos em encontrar a contratação perfeita e mais em manter os candidatos e funcionários atuais engajados, motivados e ansiosos para aprender novas habilidades, diz Melissa Person-Ashforth, CEO da Melissa International.

"Para mim, claro, é sobre encontrar as habilidades certas, mas também saber que tratar bem meus funcionários, compensando-os e recompensando-os, significa que mantê-los felizes", diz Ashforth. “Todos fazendo um esforço conjunto para ir além, aprender mais e adquirir novas habilidades.”

A cultura também é uma peça importante do quebra-cabeça, diz Sherri Douville, CEO da Medigram, uma startup em rápido crescimento. Douville diz que a cultura é a chave para garantir que ela possa atrair, contratar e reter as pessoas certas. “Não temos um grande problema em contratar para funções de TI, mas nossa cultura é uma grande parte disso. Não estamos tentando transformar ou mudar uma cultura existente, o que pode dificultar nas empresas existentes e tradicionais”, diz ela.

O salário, é claro, ainda está no topo da lista de atratividade dos candidatos, e a contratação para qualquer função de TI exige acompanhar as taxas do mercado. Mas concentrar-se em benefícios, vantagens e cultura pode ajudá-lo a atrair, contratar e reter até mesmo para os papéis de TI mais difíceis de preencher.

Com base no relatório de 2018 sobre o estado do CIO, aqui estão os 10 principais empregos de TI mais difíceis para os empregadores preencherem, para que você saiba onde gastar esforços extras ao contratar.

1. Gerenciamento de segurança/risco

Mais de um terço (39%) dos entrevistados afirmam esperar dificuldades em encontrar as qualificações adequadas para preencher cargos de segurança e gerenciamento de risco, de acordo com nossa pesquisa. “As proteções de segurança cibernética devem ser sua prioridade número 1, sempre”, diz Person-Ashforth. “Muitas vezes vemos clientes evitando isso até que tenham uma brecha, o que é um erro”.

Além disso, conforme regulamentações como o GDPR entram em vigor, essa área, que já apresenta escassez de talentos, passa a ser uma das prioridades mais importantes para os departamentos de TI.

2. Inteligência de Negócios (BI) e Análise de Dados

Trinta e seis por cento dos entrevistados dizem que o preenchimento de funções de Business Intelligence e Analytics continua difícil. Saber como coletar, processar, analisar e atuar sobre as vastas quantidades de inteligência de negócios e dados que fluem para as empresas a cada ano é uma área estratégica crucial; e um grande diferencial competitivo em uma economia digital.

3. Integração na nuvem

Vinte e um por cento dos entrevistados dizem esperar dificuldades para preencher as funções de integração na nuvem. E à medida que mais organizações mudam de implantações locais para as implantações em nuvem, a necessidade de talentos de integração na nuvem continuará a crescer. Seja integrando com sistemas legados ou migrando entre provedores de nuvem, é um conjunto de habilidades críticas em TI.

4. Desenvolvimento de aplicativos

Seja no desenvolvimento de aplicativos para uso corporativo interno para promover objetivos de negócios ou no desenvolvimento de aplicativos para clientes externos, essa área é outra função crítica de TI que enfrenta escassez de talentos qualificados. Algumas organizações estão se voltando para o desenvolvimento de códigos para ajudar a aliviar a pressão; 20% dos entrevistados disseram que terão problemas para preencher as funções de desenvolvimento de aplicativos.

5. Software empresarial (ERP, CRM)

Para grandes empresas, as soluções de ERP e CRM são necessárias para garantir eficiência, permanecer dentro dos orçamentos e, é claro, comunicar-se efetivamente com os clientes, e 19% dos entrevistados dizem que terão dificuldade em preencher as funções de software corporativo. “Essa área é especialmente importante para nós, já que estamos usando o Salesforce para gerenciar e medir a eficácia das campanhas, além das plataformas de Marketing Digital de próxima geração”, diz Person-Ashworth.

6. Inteligência Artificial (IA)

Há um grande burburinho em torno da IA ​​ultimamente, especialmente em como ela pode ajudar as empresas a serem mais eficientes e as maneiras pelas quais ela afetará ou eliminará certas funções. Talento habilidoso para a construção, monitoramento e manutenção de IA estará em alta demanda à medida que esta tecnologia evoluir e amadurecer. Atualmente, 18% dos entrevistados antecipam que as funções de IA serão difíceis de preencher.

7. DevOps / Processos Ágeis

Hoje em dia, toda empresa é uma empresa de TI, e a grande maioria está envolvida em algum tipo de desenvolvimento de software para realizar seus negócios, seja sua única missão operacional ou apenas alavancando software para aprimorar sua linha principal de negócios. DevOps e Agile são metodologias que tornam mais fácil e rápido criar e implantar software, mantendo uma aderência próxima aos requisitos do cliente e do usuário final em todas as etapas de desenvolvimento. Dezessete por cento dos entrevistados dizem que será difícil preencher os papéis DevOps/Agile.

8. Internet das Coisas (IoT - dispositivos conectados, sensores)

Dezesseis por cento dos entrevistados dizem que terão dificuldade em preencher papéis relacionados à Internet das Coisas (IoT), incluindo papéis que envolvem a construção, programação, monitoramento e manutenção de dispositivos conectados, sensores e tudo o mais que envolve IoT.

9. Arquitetura Corporativa

As regras de transformação e disrupção digital no mundo da tecnologia atual e a arquitetura corporativa podem ajudar de forma proativa e holística na resposta de uma empresa a essas forças, identificando a estrutura e a estratégia existentes da empresa e planejando como direcioná-la melhor. Essas funções são críticas para qualquer empresa voltada para o futuro que queira permanecer líder de mercado, mas 16% dos entrevistados dizem que terão dificuldade para preencher as funções de arquitetura corporativa.

10. Serviços em nuvem

Seja público ou privado, os serviços em nuvem permitem acesso onipresente a pools de compartilhamento de recursos configuráveis ​​e personalizáveis ​​oferecidos aos clientes pela Internet. Com cada vez mais organizações acessando um ou mais serviços em nuvem, a demanda por talentos com experiência no fornecimento, solução de problemas e gerenciamento de serviços em nuvem está aumentando. Atualmente, 16% dos entrevistados dizem que terão dificuldades para preencher os papéis relacionados aos serviços na nuvem. Fonte:http://cio.com.br/gestao/

 

5 transformações que a internet causou ao mundo dos negócios

Qualquer pessoa com acesso a aparelhos eletrônicos inteligentes pode notar que estamos em uma época onde a internet está sendo introduzida em praticamente tudo que utilizamos. Há quem diga que estamos próximos de uma "internet dos seres humanos", não apenas "internet das coisas".

Abaixo listamos 5 mudanças que essa evolução causou ao mundo dos negócios.

1) Monitoramento

Empresas agora podem avaliar melhor como seus consumidores utilizam seus produtos através do monitoramento de diversas redes. Isso permite uma estimativa mais precisa do ciclo de vida de um produto. É quase como se as empresas pudessem monitorar equipamentos ou produtos em sua casa tão facilmente como se podem controlá-los em seus laboratórios.

2) Altas expectativas

Os consumidores sabem que estão fornecendo às empresas mais informações do que nunca. Isso resulta em clientes com grande expectativa de qualidade, valor e suporte contínuo.

3) Presença online

Independente do tamanho da sua empresa, seus clientes esperam encontra-lo online. Mesmo que vejam sua loja física na cidade, sem um site acessível através de uma pesquisa no Google, você está na contra mão. Você quer continuar competindo na economia do século 21? Capriche na identidade visual e confie em uma empresa de marketing digital para desenvolver conteúdo para seu site. Dê para sua empresa a imagem que ela merece.

4) Suporte e solução de problemas

Caso tenha um problema com seu produto/serviço, o cliente espera que você saiba lidar com isso, que forneça uma solução e que tenha uma equipe de técnicos de apoio 24 horas por dia. Sem um site projetado para resolver os problemas de seus clientes de forma rápida, você vai perder para a concorrência.

5) Análise de Big Data

As empresas atuais geram internamente uma grande variedade de dados e também têm acesso a uma infinidade de informações na grande rede, em publicações e em redes sociais. A análise desses dados tornou-se um dos principais desafios para quem busca se posicionar no mercado.

Isso significa que qualquer ação se tornou muito mais competitiva e eficaz no momento de envolver o público-alvo. Além disso, essas informações podem ser utilizadas para melhorar a experiência dos clientes: as empresas agora podem compreender exatamente o que eles estão procurando, quando e como preferem fazer realizar suas tarefas diárias.

 

A especialidade da e-Setorial é transformar dados em informações úteis para auxiliar a tomada de decisões. Saiba mais sobre as nossas Soluções de Apoio à Decisão clicando aqui.

A importância do Business Intelligence (BI) para as Logísticas que desejam inovar

Logística 4.0

"O BI trata das perguntas conhecidas e das nossas pré-concepções com relação aos dados. Ao passo que Big Data se envolve com um universo de novas possibilidades e perguntas que ainda não conhecemos."

Antes de evoluirmos no tema acho importante que entendam a diferença entre BI (Business Intelligence) e BIG DATA, qual a finalidade de cada um delas, pois no passado eu mesma já havia me confundido e achava que tudo era a mesma coisa.

O BI trata das perguntas conhecidas e das nossas pré-concepções com relação aos dados. Ao passo que Big Data se envolve com um universo de novas possibilidades e perguntas que ainda não conhecemos.

Ambas possuem grande importância e devem ser bem entendidas para que as empresas possam aproveitá-las da melhor forma, agregando, alcançando os valores e resultados desejados aos negócios.

A solução de BI tem foco na coleta, organização, transformação e disponibilização de dados estruturados para a tomada de decisão, além de permitir a análise preditiva de forma rápida e assertiva às organizações. Fornecem insights e tendências aos gestores, para assim poderem criar diretrizes eficientes e eficazes para o alcance dos resultados empresariais almejados.

Já o Big Data, em geral, pouco se preocupa com a exatidão que é fornecida em um sistema de BI (exceto em casos específicos ou onde a utilização de sensores se faz presente).

O Big Data foca no processamento dos dados em busca de correlações e descobertas. Por isso no Big Data nem sempre saberemos os motivos para as correlações existentes, pois poderá ser algo jamais concebido ou estudado.

E está aí o diferencial do Big Data: mostrar caminhos e correlações antes desconhecidos nos grandes volumes de dados, em tempo hábil, para que as empresas obtenham vantagens competitivas.

Conseguiram entender? Então vamos adiante.

Neste artigo irei destacar apenas o BI e o tema BIG DATA ficará para um próximo artigo.

Preparei um vídeo produzido pela Pixar onde editei, para que você entenda as resistências e as objeções que os gestores impõem para implantação de um sistema de BI. Bora assistir.

Falar em BI não é algo mais tão inovador quando falamos em logística, hoje já existem diversos softwares e plataformas que extraem estes números dos sistemas e disponibilizam os famosos dashboards.

A questão central que acho interessante abordar neste artigo é a visão limitada sobre estes dados, não permitindo que as empresas de logísticas pensem um pouco além de indicadores de desempenho, capacidade de ocupação dos veículos e volume de avarias.

A verdade é que um sistema de BI coleta dados de vários setores de uma empresa, como:

  • Dados corporativos tradicionais de sistemas operacionais
  • Dados sobre tráfego e clima vindos de sensores, monitores e sistemas de previsão
  • Diagnóstico do veículo, padrões de condução e informações de localização
  • Previsões de negócios financeiros
  • Dados de resposta à publicidade
  • Dados do padrão de navegação de sites
  • Dados de mídias sociais
  • Dados de Serviço de Atendimento ao cliente
  • Dados de Recursos Humanos (custos com hora-extras, funcionários afastados, índice de satisfação dos colaboradores, etc).
  • Dados comerciais como quantidades de propostas x fechamentos
  • Dados de portaria para acesso a empresa.

Não cruza-los é o mesmo que dar um tiro no pé. Não lideramos mais uma empresa seguindo a intuição mas sim com dados que irão te ajudar na tomada de decisões e validações de processos.

De que adianta ter ótimos indicadores de desempenho em entregas, se seu SAC continua recebendo reclamações, se o seu colaborador falta demais, se seu custo logístico é muito alto, se você tem um alto giro de seus colaboradores, se sua área comercial traz muitas propostas e poucos fechamentos, você sabia que as tendências do mercado são trazidas pelo canal receptivo e pelos seus agentes comerciais?

Muitos gestores ainda preferem ouvir o que vem de fora, o chamado “Canto da sereia”, agentes externos oportunistas com foco neles mesmos e naquilo que podem trazer, extrair o que interessar e depois irem embora. Dentro da logística isso acontece todo santo dia.

Enfim, repito e volto â dizer, as respostas não estão fora de sua empresa mas sim dentro e só depende de sua interação com seus dados e seus colaboradores para extrair.

A integração de todos os setores é essencial para a saúde de uma empresa, funciona da mesma forma que um corpo humano, não adianta o coração estar saudável, se outros órgãos estiverem comprometidos, pois gradativamente vai gerando danos ao coração.

O segredo para o sucesso de um projeto de BI é a possibilidade de se analisar uma grande quantidade de dados variáveis, estruturados ou não estruturados com grande precisão e velocidade, proporcionando inteligência gerencial à empresa.

É muito comum que, ao implantar BI, os gestores tenham algumas dúvidas quanto à sua efetividade e ao modo como isso deverá ocorrer.

Afirmo que, para se ter sucesso com o BI, existem dois pontos-chave que devem ser observados: o planejamento e a ferramenta tecnológica adequada.

Enquanto um planejamento bem estruturado ajuda a reduzir o tempo e os custos de implementação, a escolha de uma ferramenta tecnológica adequada melhora a eficácia das decisões tomadas e gera melhores resultados.

COMO TER SUCESSO COM O BI?

Acredito que existam 3 pontos importantes a serem considerados, sendo eles:

ORGANIZAÇÃO

Assim como em qualquer projeto, o primeiro passo é a organização de todos os requisitos para se implementar uma estratégia. Essa organização se dá durante a fase de planejamento.

Veja os principais pontos que deverão estar contemplados em seu planejamento:

Definição dos requisitos funcionais: consiste em determinar quais serão os KPIs (indicadores de desempenho de todos os departamentos) que serão disponibilizados pelas aplicações de BI, em que momento e em qual formato;

Definição dos utilizadores: podemos dividir os utilizadores, geralmente, em três grupos, sendo eles os utilizadores gerais de relatórios; os produtores e analistas que avaliam os dados; e os gestores que determinam os objetivos e estratégias;

Integração e qualidade dos dados: a integração dos dados de maneira correta e sem perder a qualidade é um dos pontos chave para um projeto de BI de sucesso. Verificar os sistemas operacionais onde a ferramenta poderá rodar e o modo que os dados serão acessados é fundamental;

Escolha do software correto: utilizar versões de teste para verificar qual software se adequa melhor às necessidades de sua empresa é fundamental, pois evita que a empresa contrate um software muito robusto e mais caro sendo que não utilizará todas as funcionalidades oferecidas;

Limitação do tempo de execução: ao definir um prazo para a execução de um projeto, você demanda uma concentração mais intensa dos setores responsáveis envolvidos. Essa limitação de dados evita a postergação das ações necessárias para a implantação do projeto;

Manutenção do projeto: o mercado e a realidade das empresas mudam constantemente — o que também ocorre com as aplicações de BI. Atualização e otimização constante das aplicações é uma obrigatoriedade.

DESIGN E LAYOUT DA APLICAÇÃO

Além dos requisitos técnicos para a escolha de uma aplicação, deve-se observar as questões de design e layout da mesma.

A aplicação deverá disponibilizar os dados de forma simples e de fácil compreensão e possibilitar a geração de relatórios com padrões de tipografia e paleta de cores, a fim de proporcionar uma experiência de usuário (UX) completa e objetiva.

Os gráficos gerados nos relatórios deverão obedecer a uma lógica de cores e apresentar as informações em ordem cronológica ou respeitar uma sequência de eventos ou de processos, a fim de facilitar a compreensão de quem for interpretá-lo.

Além desses pontos, é importante que a aplicação disponibilize diversos tipos de gráficos específicos para cada tipo de análise, como matriz SWOT, matriz BCG, para a análise de produtos ou serviços e um quadro de análise de benchmarking.

IMPLEMENTAÇÃO

Após a confecção de todo o planejamento e a definição da aplicação BI a ser utilizada, é chegado o momento da implementação do projeto em si. Esse processo demanda algumas etapas básicas:

Mobilização dos envolvidos: a participação ativa de todos os diretores e gestores na implantação do BI é essencial, principalmente da alta gestão, pois somente assim o projeto terá sucesso;

Levantamento de informações: aqui deverão ser levantadas quais informações deverão ser disponibilizadas para os gestores para análise de desempenho e de mercado;

Mapeamento das fontes de dados: este mapeamento tem por objetivo identificar de onde as informações serão retiradas e analisar a viabilidade das informações solicitadas no passo anterior. Essas fontes de dados vão alimentar a aplicação de BI.

Construção do sistema: a construção é, sem dúvidas, a parte mais longa de todo o processo de implementação de um projeto de BI. A extração de dados, análise de qualidade, carga e testes são realizadas nesta etapa.

Disponibilização aos usuários: esta é uma etapa muito delicada, pois é nela que o produto resultante é entregue. Aqui deverá ocorrer, ainda, toda a parte de treinamento e capacitação dos usuários, para que possam utilizar a ferramenta em seu dia a dia para a tomada de decisões.

QUAIS ERROS EVITAR?

Mesmo com um planejamento bem estruturado e uma execução bem-feita, podem existir alguns erros que devem ser evitados de qualquer maneira. Veja alguns dos erros mais comuns que ocorrem durante o processo de implementação de um projeto de BI:

FALTA DE PLANEJAMENTO NA IMPLEMENTAÇÃO

Ao implementar uma ferramenta de BI, é essencial que se defina quais são os objetivos da empresa ao fazer esse investimento e de que modo essa solução vai contribuir para alcançar os resultados esperados.

Para que tudo funcione, deve-se ter uma visão sistêmica da empresa, compreendendo como cada recurso contribui e alimenta o Business Intelligence.

SUBUTILIZAR O SISTEMA

Um dos erros mais comuns é subutilizar o sistema. Isso ocorre quando a equipe não foi devidamente apresentada à ferramenta e desconhece sua importância e funcionamento.

Esse despreparo resulta em dados dispersos em diversas planilhas ou outros sistemas. É muito comum que o recurso mais utilizado do BI seja o botão “Exportar para o Excel”, e cada usuário passa a construir suas próprias análises em Excel ao invés de incorporá-las ao BI.

NÃO DAR ATENÇÃO À QUALIDADE DOS DADOS NA ORIGEM

Uma das premissas para um BI de sucesso é qualidade dos dados de origem porém, muitas vezes, os sistemas não possuem regras básicas de validação e tornam o processo de carga para o BI um grande desafio. Campos em branco, com valores incorretos ou grafados de maneira diferente podem distorcer as análises.

O BI vai mostrar exatamente o que está na base e, para que a análise possa ser utilizada em sua plenitude, na maioria dos projetos é necessário ajustar dados em sua origem.

FALTA DE INTEGRAÇÃO COM OUTRAS FERRAMENTAS

O BI deve se comunicar com todas as plataformas utilizadas para coletar, processar e analisar dados de uma série de fontes, como o TMS, ERP, CRM, Gestão de Projetos ou outras ferramentas utilizadas por sua empresa.

Uma atenção especial deve ser dada aos conectores disponíveis em cada ferramenta, algumas tem poucas opções, outras irão cobrar um valor extra para cada tipo de conexão, forçando o usuário a exportar dados manualmente para depois carregar no BI.

Ao não integrar essas ferramentas ao BI, ocorre a perda da capacidade de confrontação de dados e de análise dessas informações.

Para que seu projeto de BI tenha sucesso, é obrigatório ter um profissional devidamente qualificado, que entenda o funcionamento da ferramenta para auxiliar no processo de integração das informações.

Esse profissional vai verificar se as pessoas estão utilizando o sistema corretamente, se a equipe compreende a importância do processo de análise de dados e se são necessários mais treinamentos.

Por onde devo começar a gerar um BI na logística?

Além de todos os benefícios do BI dentro de sua empresa de logística permitindo tomada de decisões mais assertivas, que foram descritos acima, existem também aqueles benefícios que são vistos como diferencial competitivo que deverão alimentar o BI de seus clientes.

Sim, alimentar seus clientes com informações de fácil acesso, rápidas e confiáveis serão cada vez mais a bola da vez neste mercado.

Alguns operacionais ainda resistem a estas mudanças pois a falta de informação esconde suas ineficiências, mas até quando?

Enviar dados que apoiem o planejamento de seus clientes permitirão que o relacionamento operacional tenha mais amadurecimento e ai sim a Logistica 4.0 começa a fazer sentido para muitos empresas que acreditam que esta realidade ainda está distante no Brasil.

E como fazer isso?

Mapeie e revise seus processos operacionais

Lembre-se que quanto menos interferência humana menor será a possibilidade de erros.

Gradativamente migre para um modelo digital, as empresas com processos obsoletos, que insistem em modelos completamente analógicos e manuais de gestão, podem ter dificuldade para se adequar a esse novo momento.

Para o gestor que deseja potencializar os resultados da sua empresa, é muito importante que seus processos de trabalho sejam conhecidos e revisados, buscando otimizar e automatizar o máximo possível.

Invista na comunicação com seus embarcadores e clientes

Não dá mais para aceitar a troca de informações de pedidos, ocorrências de transporte e situação dos fretes por e-mail, e o lançamento manual de informações em sistemas, então a dica é apostar em tecnologias como EDI (Troca Eletrônica de Dados), e Webservices(é uma solução utilizada na integração de sistemas e na comunicação entre aplicações diferentes), que são capazes de integrar os embarcadores, transportadoras e demais parceiros (inclusive os fornecedores e clientes), evitando retrabalho, reduzindo custos, evitando erros e acelerando o trabalho.

Integração é a palavra-chave para adotar as práticas logísticas mais modernas na sua empresa. Essa conectividade facilita a gestão e permite controle completo sobre os processos.

Conecte a sua frota e motoristas e agregados à base em tempo real

Se um veículo não está seguindo o trajeto planejado, o gestor pode intervir imediatamente sobre frota. Dessa mesma forma, se um determinado motorista estiver apresentando médias de consumo de combustíveis ruins, ou padrões de condução inadequados, a tecnologia dos rastreadores integrados aos sistemas de gestão de frota permite avaliá-los individualmente ou enquanto grupo por meio das análises e estatísticas.

Caso qualquer anormalidade ocorra na operação de transporte, como uma falha mecânica ou um roubo de carga, as novas tecnologias permitem não só a notificação à empresa e o monitoramento dos veículos, mas também o desligamento remoto do caminhão.

Invista em Gestão de Pátios e registro de ocorrências

Se você é um operador logístico que conta com uma operação nervosa, onde seus clientes cobram agilidade nas cargas e descargas, e registro de ocorrências com alto nível de informação, no mercado já existem soluções que além de entender quanto tempo um veículo fica parado dentro de seu CD, e possível também formalizar ocorrências de avarias e faltas em tempo real.

Estruture armazéns inteligentes e mais eficientes

Concordo que falar em armazéns automatizados e algo ainda um pouco distante da logística brasileira, mas utilizar o BI para entender deslocamento de empilhadeiras, quantidades de movimentações, isso é bem real e ao seu alcance, avaliar melhor em quais posições o produto que mais giram e guardar de forma mais segura aqueles com maior valor agregado parece óbvio mas pouco avaliado na doidera dos armazéns brasileiros.

Utilizar empresas para realizar inventários através de drones, é outra realidade que começa a fazer parte do mercado logístico bem lentamente, mas que não permite somente agilidade mas uma economia de mão-de-obra e interrupção nas operações.

Crie uma rotina e cultura de gestão baseada em dados

Diante do grande volume de dados e informações que as novas tecnologias e sistemas disponibilizam, surgem as condições para que os gestores interessados possam analisar as suas empresas por diversos aspectos, e a partir disso tomar as melhores decisões, reduzindo custos, melhorando prazos de entrega e atendendo cada vez melhor os seus clientes. Mas para isso é fundamental que seja criada na empresa a cultura de seguir uma rotina de analisar os relatórios e dados gerados pelos sistemas com frequência.

Já deu para perceber que a Logística 4.0 é aliada de um trabalho eficiente e pode potencializar inclusive a segurança de seus colaboradores, processos e bens, certo? A novidade não é uma previsão para o futuro: é uma realidade inegável que precisa ser tão bem aproveitada quanto possível pelo gestor moderno.

Acredito ter demonstrado a importância que os dados possuem dentro da logística, e que se especializar para analisa-los será o grande diferencial entre as empresas.

Não resista àquilo que pode mudar o futuro da logística brasileira e principalmente o da sua empresa.

Quem estiver na frente destas análises descobrirá o melhor caminho e se tornará cada vez mais competitivo para brigar com aqueles que optaram em adotar a inovação como principal instrumento para atingir resultados.

Até a próxima.

e se eu quiser criar meu BI com software livre?

 

 

https://revistamundologistica.com.br/blog/rosana/-a-importancia-do-business-intelligence-(bi)-para-as-logisticas-que-desejam-inovar

A Internet das Coisas (IoT) na prática - Desafios e Case de Sucesso

É bastante promissor observar que muitas empresas já estão evoluindo e colocando em prática os pilotos desenvolvidos nos últimos anos.

Em outubro de 2017, a segunda edição do IoT Snapshot, Um retrato da adoção e do potencial da internet das coisas no mercado brasileiro, revelou uma evolução bastante promissora em relação ao que o mercado espera da internet das coisas (IoT - Internet of Things) e o quanto essa tecnologia está sendo adotada pelas empresas. Para citar um exemplo, as organizações que estão investindo em IoT, em processo de adoção ou que pretendem adotar a tecnologia em 2018 já são mais de 60% dos respondentes.

Nos últimos anos, aconteceram muitos testes, protótipos, experimentações e aprendizados. Além disso, surgiram modelos de negócios diferentes, parcerias e o florescimento de um novo mercado. Mas em meio a esse ambiente de pioneirismo, observamos empresas que já começaram a se deparar com um novo conjunto de desafios: os projetos-piloto começaram a dar certo e é hora de fazer o roll-out – e agora

Abaixo, listo quatro fatores que surgiram na pauta dessas empresas que já se convenceram dos benefícios da internet das coisas e agora querem usá-la na prática:

1 - Mensuração dos benefícios frente aos investimentos

As iniciativas de inovação e os projetos de IoT vinham, e ainda vêm, muitas vezes, sendo desenvolvidos com investimentos e budgets direcionados à experimentação. Esse movimento também contava com uma boa parcela de patrocínio da indústria, que queria mostrar suas soluções e se posicionar no mercado.

Quando esses projetos ganham proporções de operação real, a conta muda de dimensão. O entendimento dos benefícios se torna uma questão crítica, uma vez que os investimentos passam a concorrer com orçamentos direcionados a outras prioridades da organização.

2 - Robustez financeira e técnico-operacional dos parceiros

Outra mudança de patamar que acontece nesse momento diz respeito aos players envolvidos nas iniciativas de IoT. Enquanto teste, PoC ou piloto, exige-se pouca robustez dos participantes envolvidos – até porque muitas das soluções demandadas não são desenvolvidas por grandes players, mas sim por start-ups focadas em nichos muito específicos de mercado.

Quando a empresa passa dos testes para tentativas de roll-out, entram em cena necessidades como solidez financeira, volume de produção, suporte operacional às soluções e outros requisitos que são muito menos atrativos, mas que não podem falhar em uma operação real. Equilibrar as especificidades das soluções com a necessidade de robustez para um ambiente operacional é um dos desafios de quem está amadurecendo.

3 - Maturidade das equipes quanto às novas tecnologias e processos

A identificação, desenvolvimento e retenção de profissionais capacitados e motivados sempre foi um desafio comum de qualquer gestor. Esta complexidade aumenta consideravelmente quando estamos tratando de temas que ainda não estão maduros.
Muitas empresas contam com alguns profissionais de referência, que têm conseguido acompanhar essas inovações, mas têm dificuldade em construir equipes que possibilitem a concretização dos projetos. Contar com profissionais capacitados (e em constante aprimoramento) foi e, provavelmente, continuará sendo um tema relevante para os gestores de tecnologia.

4 - Segurança da informação, continuidade de negócios e governança – gestão de riscos

É sabido que, com a IoT, a quantidade de dispositivos conectados se multiplica e cada um deles pode se tornar um ponto de vulnerabilidade no ambiente tecnológico das empresas. Mas mesmo que este fato seja de conhecimento geral, o tema de segurança ainda não aparece de maneira voluntária como um elemento essencial na arquitetura de IoT. Isso ficou comprovado no IoT Snapshot 2017 – quando provocados, os respondentes concordaram que esse é um tema crítico, mas foi um dos menos citados de maneira voluntária.

Além disso, com as soluções de internet das coisas, a tecnologia passa a integrar elos da cadeia que usualmente contavam com pouco suporte tecnológico. Com isso, o escopo de continuidade de negócios tende a se ampliar de maneira significativa. A cobertura da tecnologia se amplia e, proporcionalmente, a necessidade de uma gestão de riscos relacionados à segurança e à continuidade das operações.

De qualquer forma, é bastante promissor observar que muitas empresas já estão evoluindo e colocando em prática os pilotos desenvolvidos nos últimos anos. O que eram promessas e apostas começam a se concretizar como uma realidade tangível. Mas a IoT, na prática, traz à tona novos desafios, que não são mais de experimentação, mas sim de operação, resiliência e confiabilidade. Por isso, é necessário manter o espírito jovem e a mente ainda mais aberta às novidades, mas amadurecer e ganhar robustez para se encaixar no ambiente real de operações.

Carros e caminhões da Volvo vão compartilhar alertas de trânsito

A Volvo decidu se unir na busca de um trânsito mais seguro e anunciou que seus veículos vão compartilhar em tempo real as informações recolhidas por suas tecnologias de alertas de trânsito.

Com isso, quando o pisca-alerta de um carro equipado com o sistema Hazard Light Alert for acionado, um alerta será enviado tanto para outros carros equipados com a tecnologia quanto para caminhões da Volvo Trucks que possuem sistema semelhante. O mesmo acontecerá caso o motorista de um desses caminhões ligue o pisca-alerta de seu veículo.

A partir da informação de que há automóveis diminuindo a velocidade ou completamente parados adiante, os motoristas poderão tomar atitudes que reduzem a chance de acidentes, como ir mais devagar ou até alterar a rota.

Esta é a primeira vez que a Volvo Cars divide com outra empresa (apesar de ambas serem Volvo, as companhias pertencem a grupos diferentes) os dados compartilhados entre carros com o sistema Hazard Light Alert, que é item de série de diversos modelos da marca desde 2016.

De acordo com a vice-presidente do Centro de Segurança Volvo Cars, Malin Ekholm, a expectativa é de que novas colaborações ocorrem nesse sentido. “Quanto mais veículos temos compartilhando dados de segurança em tempo real, mais seguras se tornam nossas estradas. Estamos ansiosos para estabelecer novas colaborações com outros parceiros que compartilham nosso compromisso com a segurança no trânsito”, disse em comunicado à imprensa.

Por enquanto, a comunicação entre carros e caminhões acontecerá somente entre veículos vendidos na Suécia e na Noruega. Para garantir o cumprimento da Regulação Geral de Proteção de Dados da União Europeia, que entra em vigor no fim de maio, os dados serão anônimos e agregados.

Referências:
http://cio.com.br/opiniao/
https://www.tecmundo.com.br/mobilidade-urbana-smart-cities

Atualizações sobre o mundo Pentaho

Aquecimento

Para iniciar, cabe uma breve explanação sobre os acontecimentos que têm aquecido o mercado e a comunidade de empresas, usuários e desenvolvedores de soluções de apoio a decisão, que evitam desperdiçar verdadeiros latifúndios com licenças de uso de softwares antigos e criam suas próprias soluções, sob medida, e sem vínculos com quem quer que seja. Nem com vendedores de licenças, nem de servidores nem de consultorias, cursos ou treinamentos caríssimos e infinitos.

Muitos projetos ambiciosos da atualidade, em todo o mundo, só são considerados viáveis por conta das facilidades oferecidas pelo produto Pentaho, uma suíte (um conjunto de softwares integrados entre si) de código aberto, gratuito, que contempla todas as etapas de soluções de Business Analytics e/ou Business Intelligence, end to end. O Pentaho tem sido turbinado, digamos assim, pelas CTools, um conjunto de plugins criados por uma empresa portuguesa, a Webdetails. Em 2013 ela foi comprada pela Pentaho, empresa que mantém o produto com o mesmo nome, que conta com uma versão Enterprise, não gratuita e ainda mais completa que a versão gratuita, a Community. Ambas as versões passam a contar com várias das Ctools como parte integrante, juntamente com o Pentaho Marketplace, responsável pela instalação e gerenciamento de plugins.

Em 2015 a empresa Pentaho foi comprada por um dos maiores grupos do mundo, a Hitachi, um líder global em indústrias, infraestrutura e tecnologia, que tem, entre outros, foco no mercado de IoT, internet das coisas. Eles gerenciam entre outros empreendimentos, usinas nucleares, metrôs, ferrovias e têm uma gama de sensores bastante considerável. Todos estes sensores geram dados, que precisam ser analisados em tempo hábil para que façam algum sentido e ajudem na tomada de decisões, aplicáveis em praticamente todas as esferas da sociedade. Aí é que entra a suíte Pentaho.

Pentaho Day 2017 Brasil - Curitiba/PR

Pentaho Day 2017 - BrasilE ao falarmos de Pentaho, cabe aqui destacar, ainda com certo delay, que o Pentaho Day 2017 Brasil - Curitiba/PR foi fantástico, como sempre. Foram tantos aprendizados e tantos contatos estabelecidos, que vários projetos desde então foram executados aqui na e-Setorial e nos consumiram, mas não podemos deixar de enaltecer mais essa iniciativa da comunidade Pentaho Brasil, que ajuda profissionais e empresas de ramos de atividade e portes diferentes. A título de exemplo, nossos projetos este ano foram tão variados, que foram desde a análise de dados de Educação à Distância, do Enriquecimento de Dados de Pessoas Físicas e Jurídicas do Brasil, a análise de dados Hospitalares para Planos de Saúde, até um sistema completo para gestão de risco em Usinas Hidrelétricas e Barragens. Todos desenvolvidos utilizando o Pentaho em sua versão gratuita, atingindo excelentes resultados.

O maior evento da comunidade Pentaho do Mundo, contou com mais de 400 participantes e teve Palestras, Cases e Minicursos ministrados por algumas das maiores referências sobre o tema, que aconteceu na Universidade Positivo, em Curitiba/PR, no Brasil, nos dias 11 e 12 de maio.

O destaque principal ficou para apresentação de Matt Casters sobre o seu fantástico Web Spoon, que é o Pentaho Data Integration rodando inteiramente na web, facilitando ainda mais o desenvolvimento e manutenção das soluções.

Muito do material produzido e apresentado no evento está disponível no site do evento, inclusive o minicurso oferecido por Eduardo Carvalho, da e-Setorial, com o título "Design Patterns para Tuning Pentaho com Ctools".

Espaço para Tietagem

Eduardo Alves de Carvalho

Analista Sênior de BI na e-Setorial

"Não são todos os dias que encontramos tantos profissionais que admiramos de uma só vez. Não poderia deixar de registrar a confraternização com o norte americano Matt Casters, à esquerda, criador do Pentaho Data Integration e o português Pedro Alves, ao centro, o Criador das CTools, amigo e meu instrutor por diversas oportunidades, desde 2012. E isso acontecendo em minha cidade natal, Curitiba. Pentaho Day Brasil 2017"


Capricho da organização

A organização do evento foi impecável. Deixamos o agradecimento ao amigo Marcio Junior Vieira, da Ambiente Livre, responsável por mais esta edição do evento.

Hitachi Vantara

Hitachi VantaraEm 18 de setembro de 2017 a Hitachi anunciou a formação da Hitachi Vantara, uma empresa cujo objetivo é ajudar as organizações a prosperar nos tempos incertos e turbulentos de hoje e se preparar para o futuro. Esta nova empresa unifica a missão e as operações da Pentaho, Hitachi Data Systems e Hitachi Insight Group em um único negócio, a Hitachi Vantara. Juntas, dão aos líderes empresariais uma vantagem para encontrar e usar o valor em seus dados, inovar inteligentemente e atingir os resultados que são importantes para as empresas e a sociedade.

Apresentando a Vantara: uma combinação de TI, tecnologia operacional (OT) e expertise de domínio. Com o software de integração e análise de dados Pentaho, a Vantara oferece às organizações o poder de capturar e usar dados de forma eficiente a partir da "borda", onde os dados são movidos de forma fluida por sensores e dispositivos fora dos internos do negócio do dia-a-dia e combinam estes dados de sensores com recursos de dados corporativos mais tradicionais para fornecer um alto nível de contexto e previsões inteligentes que levam a resultados comerciais reais.

O que dizem os envolvidos

Donna Prlich

CHIEF PRODUCT OFFICER

A integração e análise de dados Pentaho continuará a evoluir, e a Hitachi Vantara irá investir para se manter à frente dos futuros desenvolvimentos em grandes dados, IoT e aprendizagem de máquinas. Sabemos o que nossos clientes precisam e com o poder e os recursos da Hitachi, podemos levá-los até mais rápido.

Pedro Alves

SVP Community / Product Designer for Pentaho at Hitachi Vantara

Não há planos de mudar a estratégia de código aberto ou parar de fornecer uma edição CE para a nossa comunidade! Essa mudança pode acontecer no futuro? Oh, absolutamente sim! Assim como poderia ter mudado no passado. E quando poderia mudar? Quando ele deixa de fazer sentido; quando deixa de ser mutuamente benéfico. E naquele dia, serei o primeiro a sugerir uma mudança em nosso modelo. Se a opensource nos trouxe aqui em primeiro lugar - mudaremos realmente isso agora que as coisas estão se aquecendo? Nós somos loucos, não estúpidos;)

Em resumo, foi criada uma nova empresa com uma estrutura muito maior, chamada Hitachi Vantara, que continuará a trabalhar com o produto Pentaho nas suas versões Enterprise, paga, e Community, gratuita.

Pentaho 8.0

Hitachi VantaraA comunidade está em polvorosa e no evento mundial da Pentaho, o PentahoWorld 2017, que aconteceu na semana passada, entre 25 e 27 de outubro em Orlando na Florida.

Entre todos os fantásticos cases apresentados, surgiu mais uma novidade bombástica. Foi anunciado a versão 8 do Pentaho, já para o mês que vem.

  • Plataforma e Escalabilidade
    • Worker nodes
    • Novo tema
  • Data Integration
    • Suporte de streaming!
    • Execute configurações para jobs
    • Filtros no Data Explorer
    • Nova experiência de Abrir / Salvar
  • Big Data Vendemos Inteligência Empresarial
    • Melhorias em AEL
    • Formatos de arquivo para Big Data - Avro e Parquet
    • Segurança em Big Data- Suporte para Knox
    • Melhorias de VFS para Clusters de Hadoop
  • Outras
    • Ops Mart para Oracle, MySQL, SQL Server
    • Melhorias na segurança da senha da plataforma
    • Mavenization PDI
    • Alterações de documentação em help.pentaho.com
    • Remoção de recursos:
      • Analisador em MongoDB
      • Plug-in móvel (desativado em 7.1)

Conclusão

Hitachi Vantara Com investimentos que só uma grande corporação pode fazer, o produto tem tudo para se disseminar ainda mais e ganhar espaço dos grandes players. A equipe de desenvolvimento não para, ao contrário dos concorrentes que só pensam em vender licenças de uso de suas ferramentas. Cada vez mais o pentaho traz segurança, facilidade em desenvolver e manter e o melhor de tudo, com funcionalidades que surpreende até aos mais exigentes. É verdade que ainda são necessários conhecimentos em Java Script e MDX para a implementação de dashboards mais específicos, entretanto aplicações simples, mas e poderosas, podem ser criadas em minutos, sem escrever uma linha de código. O caminho é este.

E que venha o Pentaho 8.0!

Links Úteis

E para onde foram os fóruns, wikis e comunidades? Abaixo separamos alguns links importantes, que o deixarão com mais segurança: 

# Dicas
1 Ctools
2 CCC Playground - Documentação dos gráficos Ctools
3 Alguns dashboards de demonstração
4 Pentaho Community website
5 Grupo de usuários Brasil
6 Forum mundial da comunidade
7 Blog Pedro Alves
8 Desenvolvimento, treinamento e consultoria especializada em Pentaho

Referências

CIENTISTA DE DADOS – POR ONDE COMEÇAR EM 8 PASSOS

Ansioso por desbravar o universo da Ciência de Dados e não sabe por onde começar? Nós ajudaremos você. Preparamos um guia que vai ajuda-lo a compreender o que faz um Cientista de Dados e como iniciar sua preparação! Confira.

McKinsey Global Institute

Big Data Report 2015

"Até 2018, haverá um deficit de 140 a 190 mil profissinais com habilidades em análise de dados e mais de 1,5 milhão de gerentes e analistas que saibam usar Big Data de forma efetiva para tomada de decisões."

Vamos começar definindo o que é um Cientista de Dados:

Cientistas de Dados são uma nova geração de especialistas analíticos que têm as habilidades técnicas para resolver problemas complexos – e a curiosidade de explorar quais são os problemas que precisam ser resolvidos.

Eles também são um sinal dos tempos modernos. Cientistas de dados não estavam no radar há uma década, mas sua popularidade repentina reflete como as empresas agora pensam sobre Big Data. Essa incrível massa de informações não estruturadas já não pode mais ser ignorada e esquecida. É uma mina de ouro virtual que ajuda a aumentar receitas – contanto que haja alguém que escave e desenterre insights empresariais que ninguém havia pensado em procurar. Entra em cena o Cientista de Dados.

Para a comunidade em geral, um Cientista de Dados é um desses “Magos de Dados”, que pode adquirir massas de dados de diversas fontes e então limpar, tratar, organizar e preparar os dados; e, em seguida, explorar as suas habilidades em Matemática, Estatística e Machine Learning para descobrir insights ocultos de negócios e gerar inteligência.

Os dados utilizados por um Cientista de Dados podem ser tanto estruturados (bancos de dados transacionais de sistemas ERP ou CRM, por exemplo) e não estruturados (e-mails, imagens, vídeos ou dados de redes sociais). O Cientista de Dados cria algoritmos para extrair insights destes dados. Em seguida, cabe ao Cientista de Dados, apresentar estes dados, de forma que os tomadores de decisão possam utilizar o resultado da análise ao definir as estratégias empresariais ou mesmo para criar novos produtos ou serviços baseados em dados.

De acordo com Anjul Bhambhri, ex Vice Presidente de Big Data da IBM e atual Vice Presidente da Adobe, o Cientista de Dados é o profissional capaz de trazer a mudança para uma organização através da análise de diversas fontes de dados. Anjul Bhambhri escreve:

“Um Cientista de Dados representa uma evolução do papel de Analista de Negócios ou Analista de Dados. Estes profissionais possuem uma base sólida normalmente em ciência da computação, aplicações, modelagem, estatísticas, análises e matemática. O que define o Cientista de Dados é a forte visão de negócios, juntamente com a capacidade de comunicar os resultados, tanto para os líderes de negócios quanto para seus pares, de uma forma que influencie como uma organização posiciona-se diante dos desafios do mercado”.

Não existe uma formação que prepare Cientistas de Dados, pois esta é uma profissão relativamente nova. Tem havido muito debate sobre isso no ambiente acadêmico (principalmente nos EUA), pois o mercado precisa de profissionais agora e o tempo de preparação de um profissional como estas habilidades, pode levar algum tempo. E por isso formações técnicas em determinadas áreas, podem ajudar a preparar estes profissionais.

Com tantas informações sobre a profissão de Cientista de Dados e seu crescimento exponencial nos últimos anos, é fácil se perder diante de tantos artigos e materiais com fórmulas mágicas sobre qual caminho seguir. Vou fazer um alerta: não existe caminho fácil para se tornar um Cientista de Dados! É preciso estudar, aprender diferentes técnicas e ter conhecimento interdisciplinar. Por esse motivo, os Cientistas de Dados são bem remunerados e difíceis de encontrar no mercado.

Abaixo, os 8 passos que consideramos fundamentais para a preparação de um Cientista de Dados:

Passo 1: Faça uma auto avaliação

Este é o primeiro passo e acredite, é fundamental. Você, como profissional, precisa avaliar o momento atual da sua carreira e como pretende estar em 5 ou 10 anos. Se pretende seguir uma carreira em Analytics, seja como Cientista de Dados, Engenheiro de Dados ou Analista, precisa compreender quais são suas habilidades atuais, onde pretende chegar, avaliar os gaps e traçar um plano de ação.

Como não existe uma formação acadêmica específica para se tornar um Cientista de Dados, este profissional pode vir de áreas como Estatística ou Ciência da Computação, sendo comum encontrar profissionais de outras áreas atuando como Cientistas de Dados (Marketing, Economia, Ciências Sociais, etc..). Mas independente da área de formação, algumas características serão comuns a todos os profissionais que trabalham com Ciência de Dados:

Programação – Conhecimento de programação é necessário. Linguagens de programação como R, Python, Julia, Scala, Java são parte do arsenal de ferramentas utilizadas em Data Science. Mesmo outros pacotes de análise de dados, como SAS, Matlab, Octave, SPSS e até o IBM Watson Analytics, requerem conhecimento em programação, para se extrair o melhor de cada ferramenta. É a habilidade de programação, que permite ao Cientista de Dados colocar em prática sua criatividade e extrair dos dados respostas para perguntas que ainda não foram feitas. Se você já tiver conhecimento em programação, isso será uma vantagem. Caso não tenha experiência em programação, mas tenha uma boa noção dos conceitos envolvidos em programação de computadores, isso vai ajudar muito. Avalie de forma clara seu nível de conhecimento em programação.

Pensamento Lógico – Cientistas de Dados usam o pensamento lógico para fazer análises. Programação requer lógica. Se você já possui esta habilidade, isso vai acelerar seu aprendizado em Data Science.

Habilidade com Números – Matemática é a base da Ciência de Dados. Programação de computadores, envolve habilidade com números. Os algoritmos de Machine Learning, são baseados em conceitos matemáticos. A Estatística, parte fundamental da Ciência de Dados, requer habilidade com números. Avalie suas características e na sua auto avaliação, verifique se esse item será um problema ou não.

Conhecimento em Banco de Dados – Em diversas fases do processo de análise de dados, interações com bancos de dados serão necessárias. Bancos de sados relacionais, Data Warehouses, bancos de dados NoSQL, Hadoop, linguagem SQL. Todas estas tecnologias estão diretamente ligadas ao trabalho do Cientista de Dados e pelo menos sua compreensão será um ponto que poderá fazer diferença. Avalie se você compreende o conceito de banco de dados, entende as diferenças entre bancos de dados relacionais e NoSQL e como utilizar linguagem SQL para consultas.

A esta altura, talvez você já esteja se perguntando: como você pretende que eu aprenda tudo isso? Aqui entra um dos conceitos mal interpretados sobre a profissão de Cientista de Dados. Acredita-se que este profissional precisa conhecer todas as ferramentas. Isso não é verdade e nem mesmo necessário. Escolha suas ferramentas e se especialize nelas. Por exemplo: conhecimento em linguagem R e Hadoop, permitirá fazer análises de grandes volumes de dados (Big Data). Você não precisa conhecer todas as linguagens de programação, bem como não tem que conhecer todos os bancos de dados. O mais importante é o pensamento lógico, esse sim indispensável (e esta habilidade talvez você já tenha). A tecnologia oferece ferramentas e nenhuma delas resolve sozinha 100% dos problemas, pois todas possuem suas limitações.

Ao fazer esta auto avaliação, será possível compreender seu nível atual de conhecimento e começar a pensar no plano de ação! 

Passo 2: Prepare seu computador

Surpreso com este passo? Esta é a etapa onde você prepara seu ambiente de testes e não deve ser subestimada. Pode ser frustrante durante seu processo e aprendizagem, não ter o equipamento ideal para instalar softwares ou executar operações que requerem poder computacional.

Ciência dados é computacionalmente intensa (isso não deve ser uma novidade para você!). Portanto, você precisa de um computador que permita processar seus scripts e aprender sobre análise de dados. Além disso, você vai precisar instalar ferramentas, interpretadores, pacotes office, etc…Para trabalhar com Ciência de Dados, um computador com 8GB de memória RAM, com um processador intel i5/i7 ou equivalente é a nossa recomendação. Naturalmente, quanto maior a capacidade do seu computador, melhor! É possível também utilizar serviços como o Cloud9 ou Amazon AWS e montar um ambiente virtual de trabalho.

Sistema Operacional – A decisão por qual sistema operacional utilizar é bastante pessoal e qualquer um dos 3 principais sistemas operacionais (Windows, Mac OS e Linux) vai atender as suas necessidades. De qualquer forma, você poderá instalar máquinas virtuais com outro sistema operacional. Boa parte do framework de Data Science e Big Data, foi construída sobre plataforma Unix. Para um servidor Hadoop ou Spark, um servidor Linux é a melhor recomendação. Já para a parte de apresentação de dados, Microsoft Office e outras ferramentas de visualização podem depender de um sistema Windows. Não há uma regra aqui, mas para usuários mais avançados, um sistema Unix é recomendado. Para aqueles que se sentem mais confortáveis com o Windows, não há problema algum. Utilize o Windows como seu sistema operacional e, se necessário, crie uma máquina virtual com Linux, se quiser processar arquivos com Hadoop e/ou Spark ou realizar outros testes. Os principais fornecedores do Hadoop (Cloudera, Hortownworks e MapR) fornecem gratuitamente máquinas virtuais com Linux e Hadoop, prontas para uso em poucos cliques. Já o Microsoft Azure Machine Learning pode ser utilizado online, por exemplo. É possível também fazer o download o SAS University Edition, uma máquina virtual com Linux e SAS, que em poucos segundos permite você utilizar o SAS (uma das principais soluções de Analytics atualmente) para seu aprendizado e totalmente gratuito.

Softwares – Independente da linguagem de programação que você escolher, você vai precisar instalar o interpretador e uma IDE. Se a sua escolha for pelo R, por exemplo, além de instalar a linguagem, você poderá instalar o R Studio. O mesmo vale para outras linguagens de programação. É possível criar seus scripts de Data Science 100% online, via browser, usando o Jupyter Notebook. Mas nem sempre você pode estar online e ter suas ferramentas instaladas localmente vai trazer uma série de vantagens. Além disso, considere instalar:

– Editores de texto: Sublime, Atom, Notepad++
– Software para Máquinas Virtuais: VirtualBox
– Git e Github: para criar seu portfólio de projetos em Data Science
– Suite Office: Microsoft Office, Libre Office

Com exceção do Microsoft Office, todas as demais ferramentas são gratuitas.

Passo 3: Estatística e Matemática

Conhecimentos de Estatística e Matemática fazem parte do pacote essencial para quem pretende trabalhar como Cientista de Dados. Modelos estatísticos e algoritmos de Machine Learning, dependem de conhecimentos em regressão linear, regressão múltipla, clustering, Álgebra Linear, etc… Você precisa ser especialista em Estatística ou Matemática ou mesmo ter feito uma graduação nestas áreas? A resposta é não. Apesar dessas áreas permitirem uma compreensão mais abrangente, é possível aprender estes conceitos e aplica-los, ao longo da sua jornada de aprendizagem em Data Science. Você não precisa aprender todos os tópicos relacionados à Estatística ou Matemática.

Existem muitas formas de aprender os conceitos de Estatística e Matemática aplicada e isso leva tempo. Para qualquer aspirante a Cientista de Dados a recomendação é aprender Estatísticas codificando, de preferência em Python ou R, de forma que você possa aplicar imediatamente um conceito aprendido. Nada substitui uma graduação em Estatística ou Matemática claro, mas você pode aprender os conceitos que serão usados no seu dia a dia em Data Science, aplicando estes conceitos através de uma linguagem de programação. Data Science é uma área multi-disciplinar.

No fim deste artigo, você encontra alguns recursos indicados por nosso time de especialistas!Analytics

Passo 4: Big Data

Big Data é a matéria prima da Ciência de Dados. A profissão de Cientista de Dados, surgiu da necessidade de criar novos métodos de análise do imenso volume de dados que vem crescendo exponencialmente. Técnicas analíticas já existem há muitas décadas (talvez há séculos), mas nunca na história da humanidade, gerou-se tantos dados como atualmente. Novas formas de coleta, armazenamento e análise de dados são necessárias e o Big Data está revolucionando o mundo atual, pois com tantos dados a nossa disposição, podemos tomar decisões em tempo real e isso gera impacto direto na vida de todos nós.

O Cientista de Dados vai consumir Big Data, ou seja, vai utilizar o Big Data como matéria prima, aplicar diversas técnicas e colher insights. Mas a responsabilidade por coletar e armazenar os dados normalmente é do Engenheiro de Dados. Criação de clusters Hadoop, streaming de dados com Spark, integração entre diferentes fontes de dados são todas atribuições novas e normalmente exercidas por Engenheiros de Dados. Mas é importante que o Cientista de Dados conheça bem como funciona a infraestrutura que armazena os dados que serão analisados, pois isso pode fazer a diferença na hora de analisar 1 trilhão de registros, por exemplo.

Hadoop – O Hadoop está se tornando o coração da infraestrutura de Big Data, o que vai revolucionar o sistema tradicional de armazenamento em bancos de dados como conhecemos hoje. Além de gratuito, o Hadoop foi criado para ser usado em hardware de baixo custo, uma combinação essencial para empresas que buscam reduzir seus custos de infraestrutura de TI e ainda capitalizar os benefícios do Big Data.

Spark – Spark é um projeto open source, mantido por uma comunidade de desenvolvedores que foi criado em 2009 na Universidade da Califórnia, Berkeley. O Spark foi concebido com o principal objetivo de ser veloz, tanto no processamento de queries quanto de algoritmos, além de processamento em memória e eficiente recuperação de falha. É atualmente um dos assuntos mais quentes em Data Science e vem ganhando muita popularidade.

Bancos de Dados NoSQL – Bancos de Dados tradicionais RDBMS (Relational Database Management Systems) são foram projetados para tratar grandes quantidades de dados (Big Data). Bancos de Dados tradicionais foram projetados somente para tratar conjuntos de dados que possam ser armazenados em linhas e colunas e portanto, possam ser consultados através do uso de queries utilizando linguagem SQL (Structured Query Language). Bancos de Dados relacionais não são capazes de tratar dados não-estruturados ou semi-estruturados. Ou seja, Bancos de Dados relacionais simplesmente não possuem funcionalidades necessárias para atender os requisitos do Big Data, dados gerados em grande volume e alta velocidade. Esta é a lacuna preenchida por Bancos de Dados NoSQL, como o MongoDB por exemplo. Bancos de Dados NoSQL, são bancos de dados distribuídos e não-relacionais, que foram projetados para atender os requerimentos deste novo mundo de dados em que vivemos.

Bancos de Dados Relacionais e Data Warehouses – Nas últimas décadas, todos os dados corporativos tem sido armazenados em bancos de dados relacionais e soluções de Business Intelligence usaram DataWarehouses para criar soluções analíticas. Estes dados estruturados, serão fonte de dados para Data Science e daí a importância do conhecimento em linguagem SQL, a linguagem padrão para consultar estes tipos de dados.

Como Cientista de Dados, você precisa ser especialista em todas as tecnologias? Não. Mas parte do trabalho do Cientista de Dados, será coletar dados do HDFS (Hadoop File system), criar RDD’s no Spark, aplicar algoritmos de Machine Learning em streaming de dados, cruzar dados não estruturados coletados de redes sociais, com bancos de dados de CRM, etc…portanto, o Cientista de Dados precisa estar confortável com a forma como os dados estão armazenados e extrair da tecnologia o melhor que ela pode oferecer.

Passo 5: Linguagem de Programação e Machine Learning

Existem diversas ferramentas de análise e o número de soluções não para de crescer. Mas a recomendação para quem está iniciando, é obter o conhecimento básico, antes de tentar usar ferramentas de análise ou pacotes comerciais, de forma a conseguir extrair o melhor destas ferramentas. Algumas linguagens de programação se tornaram ícones em Ciência de Dados, como Python e R, por diversas razões: são gratuitas, contam com uma comunidade ativa e crescente, já atravessaram o período de maturação, são amplamente utilizadas, tanto no meio acadêmico quanto no meio empresarial e se especializaram em Data Science.

Python – É uma linguagem de uso geral, que tem recebido nos últimos anos, mais e mais módulos e pacotes para Data Science como Pandas, Matplotlib, Scikit-Learn e Stats Models. Python é mais fácil de aprender em comparação a outras linguagens, tem uma comunidade ativa, muita documentação disponível (inclusive em português) e pode ser usada para outras atividades além de Data Science.

Linguagem R – Linguagem estatística, que existe há mais de 30 anos. Sua capacidade de processar estatísticas de grandes volumes de dados e criar gráficos sofisticados, fizeram com que gigantes do mercado de tecnologia, como Oracle e Microsoft, adotassem R como linguagem padrão para análises estatísticas. Um dos problemas mais comuns que as pessoas enfrentam em aprender R é a falta de um guia. As pessoas não sabem, por onde começar, como proceder e nem que caminho seguir. Há uma sobrecarga de bons recursos gratuitos disponíveis na Internet e isso torna o caminho de aprendizado muito mais tortuoso.

Por exemplo: a plataforma de Aprendizado de Máquina da Microsoft (Microsoft Azure Machine Learning), possui uma série de módulos Python e R, prontos para uso. O conhecimento de pelo menos uma destas linguagens é fundamental.

Outras linguagens como Julia, Scala e Java também são muito utilizadas em Data Science, mas se estiver começando, opte pelas linguagens R ou Python. Estas linguagens vão permitir uma base sólida, fazendo com o que o profissional avance para soluções comerciais como SAS, Microsoft Azure Machine Learning, Oracle Advanced Analytics, Microstrategy, SAP Predictive Analytics, Tibco Analytics, entre outros.

Se você já possui conhecimento em Matlab, Octave, Stata ou Minitab, saiba que seu conhecimento já pode ser utilizado em Data Science.

Uma dica importante: não tente aprender tudo! Selecione 2 ou 3 ferramentas e se dedique ao aprendizado delas de forma detalhada.

E claro, não dá para falar em Data Science, sem falar em Machine Learning.

Machine Learning (ou Aprendizado de Máquina) é uma das tecnologias atuais mais fascinantes. Você provavelmente usa algoritmos de aprendizado várias vezes por dia sem saber. Sempre que você usa um site de busca como “Google” ou “Bing“, uma das razões para funcionarem tão bem é um algoritmo de aprendizado. Um algoritmo implementado pelo “Google” aprendeu a classificar páginas web. Toda vez que você usa o aplicativo para “marcar” pessoas nas fotos, do “Facebook” e ele reconhece as fotos de seus amigos, isto também é Machine Learning. Toda vez que o filtro de spam do seu email filtra toneladas de mensagens indesejadas, isto também é um algoritmo de aprendizado.

Algumas razões para o crescimento Machine Learning são o crescimento da web e da automação. Isso significa que temos conjuntos de dados maiores do que nunca. Por exemplo, muitas empresas estão coletando dados de clicks na web, também chamados dados de “clickstream”, e estão criando algoritmos para minerar esses dados e gerar sistemas de recomendação, que “aprendem” sobre os usuários e oferecem produtos que muito provavelmente eles estão buscando. O Netflix é um dos exemplos mais bem sucedidos de aplicação de Machine Learning. Cada vez que você assiste um filme ou faz uma avaliação, o sistema “aprende” seu gosto e passa a oferecer filmes de forma personalizada para cada usuário.

Existem diversos algoritmos de aprendizagem de máquina, dependendo se a aprendizagem é supervisionada ou não supervisionada, tais como: Linear Regression, Ordinary Least Squares Regression (OLSR), Logistic Regression, Classification and Regression Tree (CART), Naive Bayes, Gaussian Naive Bayes, k-Nearest Neighbour (kNN), k-Means, Bootstrapped Aggregation (Bagging), Natural Language Processing (NLP), Principal Component Analysis (PCA), Principal Component Regression (PCR), Back-Propagation e muito mais.

Cada algoritmo será ideal para determinado tipo de dado e de acordo com a análise pretendida. Não há necessidade de aprender todos os algoritmos. Mas é importante compreender os conceitos e como implementa-los. Daí a importância da Matemática e da Estatística. Confira as dicas no fim do artigo.

Passo 6: Conhecimento de Negócios

Qual o objetivo da sua análise? Para que você vai coletar montanhas de dados e aplicar modelos de análise? Que problema você pretende resolver, analisando dados? O principal objetivo da Ciência de Dados, é resolver problemas. As empresas não vão iniciar um projeto de Data Science, se isso não for relevante para o negócio. Portanto, o Cientista de Dados deve estar familiarizado com a área de negócio para a qual ele está iniciando um projeto, utilizando Data Science.

Normalmente o mercado interpreta de forma equivocada este requerimento para a profissão de Cientista de Dados, fazendo crer que o profissional precisa ser expert em determinado segmento de negócio. Mas aqui vale fazer algumas considerações importantes. Primeiro, os profissionais de Business Intelligence sempre tiverem este requerimento, conhecer bem uma área de negócio, a fim de coletar os KPI’s (indicadores) e com isso prover soluções BI que atendessem as necessidades do cliente. Isso não mudou, o que mudou foi a forma como a análise é feita, uma vez que o Big Data entrou na equação. Em segundo, dada a amplitude de projetos de Data Science e Big Data, dificilmente haverá um único profissional atuando e sim uma equipe de Data Science, normalmente liderada pelo Cientista de Dados. E no Data Science Team, diferentes perfis irão atuar, como por exemplo especialistas em segmentos de negócio.

A dica aqui é simples. Procure compreender a área de negócio na qual você pretende atuar como Cientista de Dados. Se vai trabalhar em uma mineradora por exemplo, quais são so principais indicadores? De onde vem os dados? Que problemas a empresa precisa resolver? Que tipos de dados devem ser analisados e correlacionados? Como técnicas de Machine Learning podem ser empregadas para melhorar o faturamento da empresa? Como a análise de dados permite oferecer um serviço melhor aos clientes? Cada área de negócio tem as suas particularidades e uma compreensão ampla disso, vai permitir um trabalho que realmente gere valor.

Passo 7: Técnicas de Apresentação e Visualização de Dados

Com a massiva quantidade de dados aumentando a cada dia, um grande desafio vem surgindo para aqueles responsáveis por analisar, sumarizar e apresentar os dados: fazer com que a informação gerada, possa ser facilmente compreendida.

E uma das tarefas mais importantes do trabalho do Cientista de Dados, é ser capaz de transmitir tudo aquilo que os dados querem dizer. E às vezes os dados querem dizer coisas diferentes, para públicos diferentes. Pode parecer fácil em princípio. Hoje temos à nossa disposição os mais variados recursos para apresentação e exatamente aí que está o desafio. Nunca foi tão fácil gerar tabelas e gráficos, com diferentes estruturas, formatos, tamanhos, cores e fontes. Os gráficos estão deixando de ser gráficos e se tornando infográficos. Ter um volume cada vez maior de dados à nossa disposição, não torna mais fácil a apresentação da informação gerada. Pelo contrário, torna a tarefa mais complicada. Quase uma arte.

Uma das tarefas do Cientista de Dados, é apresentar seus resultados. Ninguém melhor que o profissional que faz a análise, desde a coleta, limpeza e armazenamento dos dados, até a aplicação de modelos estatísticos, para explicar seus resultados. Uma visualização efetiva de dados, pode ser a diferença entre sucesso e falha nas decisões de negócio. Particularmente, eu acredito que em breve, a capacidade de comunicar e contar as histórias dos dados, será uma das características mais valorizadas e buscadas pelas empresas. Técnicas de apresentação é um dos skills que fará a diferença na hora de contratar um Cientista de Dados, à medida que o conhecimento técnico estiver difundido.

O Cientista de Dados deve ser um contador de histórias e deve ser capaz de contar a mesma história de maneiras diferentes. O profissional que for capaz de unir as habilidades técnicas necessárias para análise de dados, com a capacidade de contar histórias, será um profissional único. Este é o verdadeiro conceito de unicórnio, atribuído aos Cientistas de Dados.

Diversas ferramentas possuem funcionalidades avançadas para visualização de dados: Pentaho, Tableau, QlikView, Microsoft Excel, Microsoft Power BI, Microstrategy, Weka, NetworkX, Gephi, bibliotecas Java Script (D3.js, Chart.js, Dygraphs), além de visualizações alto nível que podem ser feitas em Python ou R.

É importante não apenas estar familiarizado com uma ou mais ferramentas para visualizar dados, mas também os princípios por trás da codificação visual de dados e comunicação de informações.

Passo 8: Pratique!!

Não há outra forma de aprender qualquer que seja o assunto. É preciso praticar, testar, experimentar, cometer erros, aprender com eles, testar novamente, interagir com a comunidade.

Ufa. Se você chegou até aqui, parabéns! Agora você compreende melhor porque o Cientista de Dados é uma profissão em ascensão e porque sua remuneração está entre as maiores em qualquer pesquisa que se faça? Mas ainda não terminamos, continue sua leitura:

Erros que devem ser evitados ao longo da caminhada:

1- Achar que o aprendizado é fácil e rápido – Em nenhuma profissão, o aprendizado é rápido e fácil. Adquirir conhecimento e experiência requer tempo, esforço, investimento e bastante dedicação. Não caia nesta armadilha. Comece sua preparação hoje mesmo, mas esteja ciente que adquirir conhecimento leva tempo.

2- Aprender muitos conceitos ao mesmo tempo – Este é o erro mais comum. Por se tratar de uma área interdisciplinar, há normalmente a tendência em querer aprender muita coisa ao mesmo tempo. Não foque em quantidade e sim qualidade. Aprenda um conceito, consolide, pratique e só então avance para outra área de estudo. O começo será mais difícil, mas à medida que aprende e adquire experiência, o aprendizado de novas ferramentas fica mais fácil.

3- Começar por problemas muito complexos – A solução de problemas mais complexos em Data Science, requer tempo e experiência. Não tente fazer isso no começo da sua jornada.

4- Focar apenas na programação – Data Science não é apenas programação. Outros conceitos são tão importantes quanto. Estatística é importante. Visualização de dados e apresentação são importantes. Tenha seu foco em outras áreas e não apenas programação.

E como estudar?

Antes de investir em formação analítica, tome essas medidas para ter certeza de obter o valor real do seu investimento.

1. Defina suas metas. Como diz o ditado: “Quem não sabe para onde vai, qualquer caminho serve!”. Você fez a auto avaliação sugerida lá no início do texto? Qual foi o resultado? Quais são as áreas que você precisa se dedicar? Como será sua disponibilidade? Qual seu objetivo? Sei que são muitas perguntas, mas elas precisam ser respondidas, antes de definir sua trilha de aprendizagem.

2. Participe de comunidades. Cientistas de Dados costumam se encontrar em Meetups e em alguns blogs (links abaixo). Estas comunidades vão permitir a troca de experiências e isso é muito valioso.

3. Experimente. Enquanto você não executar um algoritmo de aprendizado de máquina em um dataset com milhões de registros, não criar um algoritmo de limpeza e transformação de dados, não coletar streaming de dados de redes sociais, você não vai compreender como as coisas funcionam. Experimente! Aprenda, faça, erre, faça novamente e quando você menos esperar, você vai ser capaz de analisar dados e contribuir para a empresa onde trabalha ou para seu próprio negócio.

Use as informações que você recolheu para selecionar opções de treinamento que ajudam você a alcançar seus objetivos, sem perder tempo e dinheiro.

Conhecimento em Ciência de Dados requer tempo e dedicação. O treinamento que você escolher deve ser um mix de fundamentação teórica, com prática e experimentação.

Recursos

Existem muitos recursos disponíveis para aprender Data Science e tantos recursos acabam gerando sobrecarga nos iniciantes, que podem perder o foco. Separamos aqui uma lista com as que consideramos as melhores fontes de aprendizagem em Data Science.

Blogs:

Data Science Central: http://www.datasciencecentral.com
KDD Nuggets: http://www.kdnuggets.com
Artigos sobre R: http://www.r-bloggers.com
Python Brasil: http://python.org.br

Estatística:

Statistics: http://www.statistics.com
Simply Statistics: http://simplystatistics.org

Machine Learning:

Machine Learning Coursera: https://www.coursera.org/learn/machine-learning
Deep Learning: http://deeplearning.net/
Deep Learning Book: http://www.deeplearningbook.com.br

Vídeos e Competições:

Top 10 TED Talks for Data Scientists: http://www.kdnuggets.com/2016/02/top-10-tedtalks-data-scientists.html
Data Science for Social Goods: http://dssg.uchicago.edu
Kaggle: https://www.kaggle.com
Data Science Game: http://www.datasciencegame.com

Capacitação:

Data Science from Harvard: http://cs109.github.io/2014
Visualização de Dados: https://columbiadatascience.com/category/course-topics/data-visualization
Open Data Science Master: http://datasciencemasters.org
Big Data e Social Analytics MIT: http://getsmarter.mit.edu/big-data-and-social-analytics-course-aw
Metis Data Science: http://www.thisismetis.com
Zipfian Academy: http://www.zipfianacademy.com
e-Setorial Business Analytics: http://www.e-setorial.com.br/servicos 

Fonte http://datascienceacademy.com.br

Como 'Simpsons' consegue prever o futuro da tecnologia e do mundo?

Simpsons previu Trump presidente em 2000

Viagem no tempo, coincidência, análise de Big Data... Muitas as razões são especuladas como brincadeira para a série no ar há décadas continuar surpreendendo seus telespectadores com previsões que pareciam inimagináveis.

William Edwards Deming

"Em Deus nós confiamos; todos os outros devem trazer dados."

"In God we trust; all others must bring data."

A lista de vezes em que "Os Simpsons" previram o futuro da tecnologia e da sociedade em geral é extensa. Volta e meia vemos casos do tipo – já rolou com a eleição de Donald Trump, com smartwatches, correções automáticas no celular... Mas como o desenho consegue acertar tanto?

Viagem no tempo, coincidência, análise de Big Data... Muitas as razões são especuladas como brincadeira para a série no ar há décadas continuar surpreendendo seus telespectadores com previsões que pareciam inimagináveis.

O site Mic conversou com ex-executivo dos Simpsons, um estatístico e um professor de matemática para tentar entender o que está por trás de tantos acertos. E as razões são mais mundanas do que você imagina.

1 - É tudo questão de quantidade

Episódio futurístico de 1995 tem Lisa falando com sua mãe por um telefone que continha uma tela de vídeo em tempo real
A série "Os Simpsons" está no ar desde 1989. São mais de 600 episódios já mostrados na TV. Em cada episódio, há uma quantidade enorme de piadas. Deu pra entender, né? Quanto mais conteúdo, mais chance de pelo alguma das cenas retratadas em certos episódios estar certa.

"Nós fizemos um zilhão de episódios de televisão, então são muitas oportunidades para fazer previsões. Não acho que alguém fale das previsões que os Simpsons erraram, mas a lista é muito mais longa do que as coisas que foram certas", apontou ao site Daniel Chun, ex-executivo do seriado.

O número de previsões da série realmente não é baixo. Matt Zaremsky, professor assistente de matemática da Universidade de Albany, estima que o desenho fez mais de 120 mil piadas em suas 29 temporadas, levando como base uma média de 8,54 por minuto nas primeiras 12 temporadas. À conta, são adicionadas mais de 1.200 "previsões explícitas sobre o futuro".

"Dos episódios baseados no futuro, estimo em 500 no total as previsões. Dos outros episódios regulares, estimo uma por episódio, o que daria 624 (até a realização da entrevista)", aponta.

De todas as previsões, muitos citam como 20 o número de previsões acertadas, apesar de que o número pode e deve ser maior. Se forem consideradas 20 entre 1.224, a porcentagem de sucesso é de 1,6%.

Com 20 previsões acertadas entre 1.224, a porcentagem de sucesso é de 1,6%

Matt Zaremsky

"As estatísticas dizem que os Simpsons tiveram tantas piadas e previsões que essencialmente tiveram apenas sorte."

2 - O que é uma previsão?

Simpsons e uma espécie de Apple Watch em 1995
Outro tema levantado pelo site é que as pessoas são generosas com a palavra "previsão". Muitos artigos e vídeos são feitos sobre as profecias dos Simpsons, mas essas visões do futuro não são necessariamente chocantes ou específicas do seriado. Um exemplo citado é que o celular no pulso (que lembra os atuais smartwatches) em um episódio de 95 não é tão original.

"O exemplo é que o Simpsons tinha algo que parecia um Apple Watch. Bom, um dispositivo de comunicações no pulso remonta a até Dick Tracy (tira de quadrinhos que estreou em 1931) e os recursos do Apple Watch não vão ser exatamente os mesmos que os Simpsons tinham no relógio. Você tem que dizer se isso é uma previsão ou não", opina Gary Simon, professor aposentado de estatística da New York University Stern School of Business.

3 – O estilo da série

Chapéu com câmera em episódio de 1994 lembra muito as câmeras GoPro
Pelos Simpsons serem um cartoon, os roteiristas podem colocar no seriado qualquer celebridade da vida real nos episódios que quiserem – como ocorreu com Donald Trump em 2000. Os roteiristas também podem criar previsões realísticas diferentes porque a série se passa em dias atuais muito parecidos com a nossa sociedade do presente.

Obviamente, um cartoon pode fazer muito mais previsões do que dramas da TV que se passam no passado, como Downton Abbey. Programas de comédia também são escritos de uma maneira que os espectadores consideram mais realista, segundo Chun. Muitos médicos consideram a comédia Scrubs mais realista da vida em um hospital do que o drama ER, de acordo com o ex-executivo.

"Quando escreve um drama, o roteirista normalmente tenta ter princípios e trata uma sociedade que realmente respeita a moral, onde todos são muito sérios e atuam com máxima integridade em todos os momentos", aponta.

É claro que nos últimos anos a família Simpsons ganhou um concorrente de peso para prever o futuro: a série de ficção Black Mirror, atualmente na Netflix, mas que tem como função exatamente prever uma sociedade futurística baseada em nossas tecnologias atuais.

4 – O cinismo dos roteiristas

Espécie de autocorretor apareceu em episódio de 1994 com um aparelho Newton da Apple
Uma parte das previsões acertadas do Simpsons também é associada ao estilo dos roteiristas. Eles são cínicos e retratam sua visão de mundo no seriado.

"Existe uma visão de mundo que os roteiristas dividem com alguns princípios básicos. Entre eles, de que as pessoas são gananciosas e que as corporações são terríveis e têm uma tendência de arruinar tudo. A corrupção é desenfreada e a sociedade como um todo tem a memória de um peixe", cita Chun, ex-executivo do seriado.

Alguma semelhança com a realidade? Bom, então enquanto a sociedade seguir desta maneira, os Simpsons continuarão acertando.

Fonte:
https://tecnologia.uol.com.br

Como a Análise Preditiva pode auxiliar a Gestão da Saúde?

Para quem não sabe o que é Análise Preditiva, a gente explica: é um processo que utiliza dados para descobrir padrões do passado que podem sinalizar acontecimentos futuros, auxiliando, assim, a tomada de decisões.

Hoje é o dia mundial da Saúde. Acreditamos que é uma questão de tempo até esse ramo seja revolucionado pela união de atuais e futuras inovações tecnológicas. Elas auxiliarão não apenas a tomada de decisão, como também o teste, a diagnose, a análise de comportamento, entre outras atividades importantes para o tratamento de pacientes e a gestão da saúde. Eduardo Prado, consultor de mercado em novos negócios, inovação e tendências em “Big Data” em saúde, listou 5 maneiras de alavancar a Análise Preditiva para esse propósito:

1. Estratificação de Risco Populacional

Classificar os pacientes como de baixo, médio ou alto risco. Utilizar essas informações para alocar seus recursos a nível amplo de toda a população, identificar os pacientes de alto risco, os provedores de alertas e gestores que vão cuidar desses pacientes, e definir as intervenções para impedir que outras pessoas se tornem de alto risco.

2. Automação de fluxo de trabalho

Acoplar a Análise Preditiva com as ferramentas de automação de processos que proporcionam aos provedores a capacidade de abranger os pacientes com necessidades de cuidados e permitir que os gestores atinjam aos pacientes de diversas formas, que vão desde a gerência de alto nível até a educação baseada na Web e em orientação (aconselhamento).

3.  Prevenção de Reinternação

Usar a Análise Preventiva para identificar quais pacientes têm a maior probabilidade de seres reinternados. Intervir para que eles recebam o apoio que necessitem para evitar a reinternação. Aqui a estratégia para manter o paciente com a saúde estabilizada fora do ambiente hospitalar será fundamental para reduzir o risco de reinternação.

4. Atribuição de Prestador e Ajuste de Risco

Aplique o ajuste de risco para avaliar o desempenho dos prestadores de serviços individuais (por exemplo, médicos), das instalações e de toda a sua organização, em comparação com outros. Usar o ajuste de risco para medir as variações dos serviços, melhorar a qualidade e mostre aos contribuintes e prestadores como a sua organização classifica a utilização os serviços e a qualidade para a gestão da saúde.

5. Cálculos de Risco Financeiro

Calcular quanto a sua prestação de serviços provavelmente vai custar para a sua população em períodos futuros. Usar esses números para determinar se a sua organização vai perder ou ganhar dinheiro sob tipos de contratos de prestação de serviços de saúde propostos. 

Como os gerentes de projetos podem usar analytics para melhorar resultados de negócios

BI no PMO

Aqui está o que você precisa saber para se tornar mais experiente em dados e gerar melhores resultados de projetos

Com as taxas de falha do projeto permanecendo problemáticas, muitos gerentes de projeto estão recorrendo aos dados para obter ajuda. O uso adequado dos dados pode eliminar as suposições da tomada de decisões e fornecer suporte tangível que os gerentes de projeto podem usar para orientar suas equipes. Os dados também podem provar o valor ao ajudar os gerentes de projeto a agendar trabalho, alocar recursos, aumentar a eficiência, reduzir custos e gerenciar riscos de forma mais eficaz.

O principal meio pelo qual os gerentes de projeto potencializam os dados é o uso de business intelligence e business analytics. Business intelligence (BI) é uma combinação de software e processo usado para coletar, armazenar e analisar big data de várias fontes e para converter esses dados em informações úteis. O BI é considerado uma forma descritiva de data analytics, pois enfoca a alavancagem de dados passados ​​e presentes para colher insights sobre o que aconteceu ou o que está acontecendo atualmente em um determinado processo. O BI dá às empresas e escritórios de gerenciamento de projetos (PMOs) acesso a métricas em tempo real para dar suporte à tomada de decisões melhor e mais rápida e para obter maior visibilidade em projetos, processos e seus resultados.

Business analytics (BA), por outro lado, é considerado preditivo, pois se concentra no “porquê” para ajudar a fazer previsões mais informadas sobre o futuro. Com o BA, os dados são analisados para prever melhor os desafios e se adaptar para fornecer melhores resultados.

PMOs com visão de futuro estão reconhecendo a necessidade de que as decisões e ações do projeto sejam apoiadas por dados factuais sólidos. Tornar-se um gerente de projeto verdadeiramente orientado por dados significa intensificar seu jogo em todos os aspectos do planejamento e execução do projeto - especialmente quando se trata de alocar e gerenciar recursos escassos, mas valiosos.

Aqui está um pouco de como a integração de data analytics nas práticas de gerenciamento de projetos pode beneficiar muito os resultados do projeto.

Combinar, alocar e agendar recursos

O gerenciamento de recursos é uma área complicada para gerentes de projeto porque os recursos costumam ser escassos e estão sempre mudando, tornando difícil planejar e alocar o uso de recursos em qualquer projeto, muito menos quando vários projetos competem por recursos. Os dados são essenciais para a tomada de decisões eficazes sobre a disponibilidade e alocação de recursos. O sucesso dos projetos depende da capacidade de combinar habilidades, alocar os melhores recursos e programar os recursos disponíveis.

Ter acesso a dados de projetos anteriores e atuais permite que os gerentes de projeto aloquem melhor os recursos para os projetos atuais e planejem melhor os futuros. Ao coletar e analisar dados em um só lugar, os gerentes de projeto podem identificar quais recursos estão sendo subutilizados ou superutilizados, permitindo que eles mudem os recursos quando necessário e agendem de acordo.

As empresas que usam planilhas autônomas do Excel em vez de ferramentas de BI integradas a seus conjuntos de gerenciamento de projetos geralmente estão em desvantagem. As ferramentas integradas de BI podem não apenas reduzir as chances de a equipe ser superutilizada e, portanto, esticada além de seus meios e possivelmente exaurida, mas também podem ajudar a garantir que os cronogramas de agendamento de projetos sejam realistas e identificar os fatores de risco que podem se tornar obstáculos para atingir esses cronogramas. Os gerentes de projeto podem usar dados para desenvolver KPIs de gerenciamento de recursos, como indicadores de conflitos de recursos ou conclusões de tarefas no prazo.

Aumentar a eficiência

O BI pode ajudar os PMOs a descobrir e melhorar fluxos de trabalho internos complicados ou eficiências baseadas em tecnologia, alertando os gerentes de projeto sobre mudanças que precisam ser realizadas para melhorar como as partes interessadas e as equipes de projeto se conectam, trabalham juntas e se comunicam. Ao descobrir e lidar com as ineficiências, as equipes de projeto podem se concentrar em trabalhos de maior valor e entrega de projetos mais rápida.

É apenas sendo capaz de reunir dados sobre os processos existentes e ineficiências que os gerentes de projeto podem identificar gargalos e outros obstáculos baseados em processos e abrir um caminho para a mudança. O BI pode isolar processos ineficazes ou ineficientes e melhorar a eficiência geral da tomada de decisões. Também ajuda a desenvolver KPIs, como tempo planejado versus tempo real gasto em tarefas, erros humanos ou o número de solicitações de mudança.

Gerenciar riscos

Os riscos podem vir de muitas formas diferentes e de fontes internas e externas. A ameaça que um risco pode representar pode ter um impacto menor ou maior nos projetos, em um programa inteiro ou em um portfólio. Muitas empresas permanecem no modo reacionário quando se trata de risco e conformidade, em vez de se antecipar aos riscos potenciais usando ferramentas de BI.

O gerenciamento de risco e conformidade é uma das áreas mais críticas onde o BI pode desempenhar um papel fundamental na identificação de problemas. Os dados fornecem aos gerentes de projeto informações concretas que podem isolar muitos tipos de riscos de projetos anteriores e atuais e permite que repensem suas estratégias de gerenciamento de risco para ir além de serem reativos.

Fazer uso de ferramentas de BI e BA

A chave para obter insights acionáveis é determinar os tipos de dados necessários para tomar decisões essenciais - especialmente em tempos de incerteza. É essencial avaliar cuidadosamente os recursos das ferramentas de BI e BA para garantir que forneçam aos PMOs insights em tempo real relevantes para apoiar o projeto e as metas de portfólio da sua empresa. Aqui estão alguns recursos importantes a serem procurados.

Ter uma infinidade de recursos de BI e BA embutidos ou integrados com ferramentas de gerenciamento de projeto não deve ser uma prioridade; em vez disso, é mais benéfico se concentrar em ter os recursos certos, incluindo:

  • A capacidade de importar e atualizar dados com o clique de um botão
  • A capacidade de ter uma análise "e se" integrada para o planejamento e gestão de recursos
  • Capacidades de modelagem e previsão
  • Painel de controle personalizável em tempo real
  • Acesso seguro baseado em função
  • Gráficos e tabelas visuais claras
  • Interface simples de arrastar e soltar
  • Recursos de detalhamento fácil
  • Integração perfeita com outros aplicativos
  • Acesso móvel seguro para quem trabalha remotamente
  • Opções de autoatendimento rápidas e fáceis para todas as funções de usuário
  • Capacidade de compartilhar informações facilmente com outras partes interessadas
  • Recursos de relatórios

Embora os recursos e capacidades de BI possam diferir dependendo do projeto, os gerentes de projeto devem garantir que os recursos essenciais para melhorar os resultados de seus projetos específicos sejam enfatizados em suas estratégias de dados. Isso permitirá que eles aproveitem a inteligência de negócios de maneira eficaz para obter percepções acionáveis, seja uma questão de gerenciamento de recursos, avaliação de riscos ou estabelecimento de processos e comunicação mais eficientes.

quero saber mais

 

 

https://cio.com.br/carreira/como-os-gerentes-de-projetos-podem-usar-analytics-para-melhorar-resultados-de-negocios/

Digital Analytics: desmistificando o fabuloso mundo das métricas digitais

Web Analytics, Digital Marketing Analytics, Online Analytics, Business Intelligence, Big Data, Google Analytics… São tantos nomes e misturebas desenfreadas que é difícil entender de fato o que faz, ou não, parte do universo das métricas digitais.

Pra tirar essa bagunça da frente e ajudar a simplificar o conceito, principalmente mostrar que vai muito além de ferramentas, adaptei esse artigo no qual compartilho os seguintes assuntos com você:

  1. Digital Analytics em 140 caracteres
  2. Digital Analytics é o mesmo que usar o Google Analytics?
  3. Digital Analytics é o mesmo que Web Analytics?
  4. E Business Intelligence / BI, é Digital Analytics?
  5. Posso chamar só de Analytics?
  6. Direto ao ponto: o que é Digital Analytics?
  7. Aplicações de Digital Analytics
  8. Bônus: como começar
  9. Referências

1. Digital Analytics em 140 caracteres

"Utilização de dados para a otimização recorrente da experiência online dos seus usuários."

Experiência online pode ser vender, utilizar um app, postar em uma rede social, clicar em um anúncio etc.

Usuário pode ser um cliente, um funcionário, um parceiro etc.

De fato, Digital Analytics não é nem de perto um bicho de sete cabeças.

2. Então é o mesmo que usar o Google Analytics?

Não. Usar o Google Analytics para a tomada de decisão de melhorias no seu site faz parte do escopo de Digital Analytics, mas é apenas uma das possíveis aplicações desse universo todo potentoso.

  • Analytics Maturity Model publicado na Twinkle Magazine

Explicando visualmente:

Este é um modelo criado por um profissional de renome no mercado, o Stéphane Hamel, que foi diretor em uma das consultorias mais prestigiadas do segmento, a Cardinal Path.

O Online Analytics Maturity Model mostra pra gente que Digital (ou Online) Analytics vai muito além de ferramentas (tools) e tecnologia. Contempla também do gerenciamento de times a processos e metodologias. Logo o Google Analytics é "só" um aspecto de uma dessas pontas desse gráfico.

Só esse tema merece um belo post no futuro, mas acho que deu para ter uma noção né?

3. É o mesmo que Web Analytics?

Web Analytics & Digital Analytics são sinônimos, porém o último a gente pode dizer que é a versão melhorada do primeiro, que ficou muito datado.

O termo "Web" é muito ligado à WWW (World Wide Web) e consequentemente ao browser, porém hoje a gente respira mobilidade e internet das coisas (IoT), então nada mais justo que ampliar de "Web" para "Digital".

Isso não é algo que tô puxando da cartola não, uma das maiores associações do mercado, a Digital Analytics Association (DAA), mudou do seu antigo nome "Web Analytics Association" (WAA) para o atual em 2012 justamente por esse motivo.

Logo, se você é mais Old School e prefere continuar usando o termo Web Analytics, tem problema não. Provavelmente você já usou mouse de bolinha e monitor CRT no seu passado longínquo e, assim como eu, pode ser um pouco mais apegado ao vocabulário tech-clássico.

4. E Business Intelligence / BI?

Não. E sim.

Confesso que é um pouco revoltante a descarada prostituição e buzzwordificação do termo. Tudo quanto é agência digital do novo século faz, vende e contrata gente de BI: de analista de BI, estagiário de BI, gerente de Business Intelligence, programador BI…

Aí você vai ver na descrição da função, é pra tirar relatório no Google Analytics, analisar desempenho de mídia ou confeccionar lindas e coloridas planilhas de Excel. Melhor falar que a vaga é para Digital Analytics (ou Online Analytics, ou Web Analytics ao melhor estilo mouse com bolinha).

Revoltas à parte, Business Intelligence está para o Sistema Solar assim como Digital Analytics está para o planeta Terra (#AmoAnalytics). Um está incluído no outro, mas o primeiro é monstruosamente maior.

“(…) a set of techniques and tools for the acquisition and transformation of raw data into meaningful and useful information for business analysis purposes”

Este é o "Tweet" na Wikipedia sobre Business Intelligence, e se você tiver alguns minutos de paciência verá que BI é mais amplo, complexo e encorpado que o nosso querido fitness Digital Analytics, mas isso não deixa em nada o último desinteressante, mesmo que a gente não chegue a comentar aqui sobre Ralph Kimball ou William Inmon, as duas maiores referências no tema... então bora continuar com nossa lupa analisando o nosso planeta azul de métricas.

[revolta ON] Só pra não perder o hábito: você usar o Google Analytics pra gerar relatórios de performance do seu site e dizer que faz BI seria como você fazer a arte de um cartão de visitas da empresa do seu tio (sim, você é o sobrinho) e dizer para os amiguinhos que faz planejamento e desenvolvimento estratégico de comunicação e publicidade. [/revolta OFF]

E o Big Data?

Você pode praticar Digital Analytics e Big Data ao mesmo tempo, uma vez que o último se refere a uma quantidade elefântica de dados. Ou seria baleística-azulística?

Transcendendo a biologia da coisa, Big Data, que virou outra buzzword, está ligada da coleta à extração de dados a partir de uma volume realmente monstruoso de dados, com intuito de fazer descobertas (a.k.a. gerar insights). Logo o Big Data é praticável tanto no escopo de Digital Analytics como em Business Intelligence.
Entenda melhor este processo seguindo este link.

5. Posso chamar só de Analytics?

Ô se pode. Deve. É nome short, tá na moda também. Ousaria dizer que "Analytics" é sexy. O que tenho reparado é que ficou chic, cool, descolado, e que cada vez mais ganha novos prefixos.

Veja se você já se deparou com algum desses aí:

  • Digital Marketing Analytics
  • Startup Analytics
  • Online Business Analytics
  • eCommerce Analytics
  • App Analytics

Só de usar, já dá uma embelezada né? #AnalyticsSuaLinda

E o significado é o mesmo pra tudo, porém já está segmentado no seu devido contexto:

"Utilização de dados para a otimização da experiência online dos seus usuários [no App / no Ecommerce / na Startup / etc…]"

6. Afinal de contas, sem enrolação, do que se trata Digital Analytics?

Agora vamos à parte mais teórica do texto, só pra deixá-lo um pouco mais sério:

A gente aprendeu antes que

Digital Analytics tem um bocado de nomes doidos, que você pode escolher na maioria das vezes como chamá-lo, mas por favor não use o termo BI pra se referir a tarefas como gerar relatórios no GA, ou ainda atestar que o CTR escapuliu do CPC que foi enquadrado pelo CPA.

E agora vamos aprender que

De uma forma bem objetiva, Digital Analytics compreende um conjunto de técnicas, processos e metodologias que visam a utilização de dados em ambientes digitais para a otimização recorrente e (melhor) tomada de decisão, percorrendo ao menos 3 áreas ou estágios:

  • Coleta de dados (Data Capture): ferramentas, armazenamento de dados, integridade, implementações técnicas, modelagem etc.
  • Visualização dos dados (Data Reporting): relatórios, painéis de controle (dashboards), monitoramento, alertas etc.
  • Análise dos dados (Data Analysis): geração de insights, criação de planos de ação e otimização, formação de base de conhecimento, aprendizado etc.

Avinash Kaushik

em seu livro Digital Analytics 2.0

"Digital analytics is the analysis of qualitative and quantitative data from your business and the competition to drive a continual improvement of the online experience that your customers and potential customers have which translates to your desired outcomes (both online and offline)"

Em tradução livre e descompromissada, seria algo como "Digital Analytics é a análise de dados quantitativos e qualitativos do seu negócio e dos concorrentes orientada ao melhoramento contínuo da experiência dos seus clientes e potenciais clientes que se traduz no seu retorno desejado (ambos online e offline).

E fechamos esta parte teórica com mais uma definição:

Digital Analytics Association

What is Digital Analytics?
"The science of analysis using data to understand historical patterns with an eye to improving performance and predicting the future. The analysis of digital data refers to information collected in interactive channels (online, mobile, social, etc.). Digital Analytics has become an integral part of core business strategies and maintaining a competitive edge. Digital data started the Big Data meme as it heralded the onslaught of Volume, Variety and Velocity, opening the door to new types of correlative discovery much wider. Digital Analytics is a moving target of innovation and exploration. That’s what makes it fascinating."

Realmente fascinante!

[Modo Preguiça ON] Link para o Google Tradutor

7. Que tal demonstrar algumas aplicações?

  • Exemplo de Dashboard postado por ∆ Studio–JQ ∆ no Dribble

Vamos explorar mais a fundo em outras postagens, porém para ficar fácil ligar o nome à coisa, alguns exemplos de aplicações de Digital Analytics:

  • Desenvolver dashboards (painéis de métricas).
  • Gerar relatórios de desempenho de mídia.
  • Implementar ferramentas de analytics com as melhores práticas de mercado.
  • Planejar e definir os indicadores chave de performance (KPI's) do seu site ou campanha.
  • Integrar diferentes fontes de dados em um Data Warehouse.
  • Utilizar os dados coletados para criar novos planejamentos de comunicação digital.
  • Criar e planejar testes A/B definindo métricas de sucesso.
  • Formar uma base de conhecimento do comportamento de navegação do seu usuário.
  • Desenvolver automações (e-mails, conteúdo personalizado, formulários de lead etc.) com base neste mesmo comportamento de navegação.
  • Criar públicos e segmentos de audiência para Remarketing.
  • E a lista vai longe…

Você deve ter notado vários itens acima são táticas ou ações de Marketing Digital, Inbound Marketing e/ou Growth Hacking. Não tem jeito, todos estão relacionados, ligados nessa [termo duramente censurado] gostosa capicce?

No final, a coisa funciona mais ou menos assim: você pode praticar marketing digital ou inbound sem nem olhar para Digital Analytics (shame on you). Mas na maioria das vezes, a prática de Digital Analytics estará sempre associada a outros temas. Sem dúvida uma bela de uma companhia!

8. **Bônus — Como começar?

Aproveitando toda a nova onda de Inbound & Fórmula de Lançamento, marotamente vou compartilhar 2 bônus com você:\

a. Curso oficial do Google

Se já não está praticando hoje nenhuma das atividades de Digital Analytics, ou se já está, mas quer aprofundar seus conhecimentos, minha recomendação top estrela na testa é sempre a mesma: comece pelo curso oficial do Google, o Digital Analytics Fundamentals .

É free. É top. É online e, pra quem prefere, tem legenda em português. Mas não se acostume com traduções, pois a maior parte do conteúdo de Digital Analytics na web está em inglês.

b. Avaliação de Digital Analytics Maturity

  • Exemplo de Relatório da Ferramenta DigitalAnalyticsMaturity.org

Mais um 0800, mas dessa vez se você não se sente confortável em ler em inglês nem tente.

Essa é uma ferramenta free de auto avaliação do modelo de maturidade de Analytics, citado anteriormente.

Espero humildemente que este artigo tenha contribuído um pouquinho mais na sua jornada pelo nirvana Analítico.

Tem sugestões e referências? Elogios de montão? Críticas vulcânicas? Deixe seu comentário!


"Muito obrigado e até a próxima!
May the Analytics be with you!!!"

9. Referências

Pra desenvolver esse texto usei as referências legalmente surripiadas e devidamente creditadas:

Generalista ou especialista? Kubrick parece ter a resposta.

Stanley Kubrick

Que tipo de executivo contratar: Generalista ou Especialista?

Se estivesse vivo, Stanley Kubrick teria completado 90 anos no dia 26 de julho. Muito já se falou sobre este gênio do cinema e seu legado mas, talvez, poucos tenham feito paralelo entre a carreira do artista e o mercado corporativo. Em termos gerais, uma das grandes questões de recursos humanos é definir que tipo de executivo contratar: generalista ou especialista? Kubrick parece ter a resposta.

O diretor filmou apenas 13 longas-metragens, sendo que pelo menos sete de seus filmes se tornaram obras-primas reconhecidas e plenamente aceitas no meio artístico. Outras películas, no todo ou em parte, também se destacaram como pérolas cinematográficas. O mais instigante, de fato, é a variação de gênero que o cineasta vivenciou na profissão. Em Dr. Fantástico, fez comédia de humor negro. Spartacus, épico. 2001, expandiu o alcance da ficção. Uma odisseia no espaço! Com O Iluminado, intensificou o horror psicológico. Explorou a guerra em Nascido para Matar. Refinou a história policial em O Grande Golpe. É como se um executivo de marketing percoresse segmentos tão distintos como a indústria bélica, o comércio exterior, a inteligência artificial, hotelaria, recrutamento e seleção, loterias etc. Sempre com resultados bem acima da média.

Kubrick abordou diversos gêneros do cinema
assim como um executivo generalista atua em
diferentes segmentos de mercado.

E não é apenas na diversidade de estilos que Kubrick foi um generalista. Nos sets de filmagens atuava em outras frentes – fotografia, roteiro, efeitos especiais, montagem e produção. Também participava da direção de arte, da cenografia e da sonorização, com controle absoluto, embora os créditos fossem associados a outros profissionais atentos à sua batuta. Estudo conduzido por pesquisadores da Columbia Business School e da Tulane University com 400 executivos confirmou a vantagem daqueles que trazem um repertório mais amplo e eclético, com experiências diversas, tendendo a assumir posições de liderança mais rapidamente. No jargão do RH, Kubrick tinha habilidades multifuncionais (cross-functional skills).

Outra pesquisa, encomendada pela Microsoft e realizada pela International Data Corporation – IDC, empresa global de inteligência de mercado e consultoria, após avaliar 76 milhões de vagas de empregos, cravou que as oportunidades mais promissoras de ascensão profissional entre 2016 e 2024 exigirão competências multifuncionais em detrimento de habilidades técnicas e específicas, mesmo em áreas como TI, direito e saúde. A consultoria ainda apontou que nas 10 principais habilidades do profissional do futuro estão a orientação para o detalhe (detail oriented). O generalista não é um “superficialista”.

Relatórios de importantes universidades e
empresas americanas apontam as
competências multifuncionais como
habilidades essenciais do profissional do
futuro.

Mais uma vez Kubrick corresponde. Como um cientista de dados que cruza estatísticas, amostras e informações diversas do negócio para orientar estratégias mercadológicas, o cineasta americano ficou conhecido por seu perfeccionismo. Nas filmagens de 2001: Uma Odisseia no Espaço, desenvolveu a centrífuga que simulava os movimentos e efeitos de gravidade zero em uma estação espacial, muito similares ao que acontece na Estação Espacial Internacional construída 30 anos depois. O clássico que completou 50 anos este ano e que está sendo homenageado pelo Museu da Imagem e do Som – MIS em São Paulo, recebeu o Oscar de efeitos especiais. Para gravar Barry Lyndon, filme de época com locações na Inglaterra, encontrou na NASA a lente que permitiria a filmagem sob à luz de velas, com resultados estéticos jamais vistos e ainda não superados. A obra é uma referência estilística, inspirada em quadros do século XVIII, e transposta para as telas de cinema com rara beleza. Em O Iluminado utilizou os recursos da recém-inventada steadicam para obter planos-sequências fascinantes como nas cenas dos corredores e no labirinto do hotel Overlook.

Sempre na vanguarda da tecnologia, Kubrick
já abordava a inteligencia artificial, com o
computador HAL 9000, muito antes da
massificação deste conceito.

O reconhecimento pela gestão de atores é outro diferencial. Ao gravar inúmeras tomadas até a perfeição, Kubrick extraiu atuações icônicas de Peter Sellers, Sue Lyon, Malcolm McDowell, Jack Nicholson, Shelley Duvall e R. Lee Ermey. O desejo de trabalhar com o mestre fez o casal Tom Cruise e Nicole Kidman, o mais cobiçado na década de 90, dedicar-se exclusivamente ao filme De Olhos Bem Fechados, rejeitando qualquer outra oferta durante as gravações.

O ponto máximo da meticulosidade de Kubrick, no entanto, foi o projeto Napoleão. Embora não tenha sido viabilizado por limitações orçamentárias, o trabalho de pré-produção é considerado o mais perfeito já realizado. O livro Napoleon: The Greatest Movie Never Made (editora Taschen), sem tradução em português, de Alison Castle, revela o envolvimento do diretor na intensa pesquisa das locações, cenários, figurinos, elenco, cronologia dos fatos, textos históricos, cinematografia e no desenvolvimento dos argumentos e do roteiro para fundamentação da obra, o que gerou conteúdo e uma base de dados com aproximadamente 17 mil imagens relacionadas à era napoleônica. A intenção do filme, inacabado, fez a fama do diretor, completo.

Como um cientista de dados, Kubrick reuniu
conteúdo e 17 mil imagens para filmar a vida
de Napoleão Bonaparte.

A diversidade é um conceito poderoso e para profissionais generalistas, o conhecimento humano, em qualquer substância, forma ou amplitude é matéria-prima. Soma-se liberdade criativa e ousadia e tem-se o ambiente perfeito para o desenvolvimento de novos produtos, serviços e soluções nos negócios. O relatório da IDC ainda traz que a criatividade (creativity), também compõe o perfil do futuro executivo. Kubrick buscou nas outras artes elementos para enriquecer a sua própria. Escreveu seus filmes a partir da literatura de Nabokov, Clarke, Burgess, Thackeray, King, Schnitzler; orquestrou suas tramas com Strauss (Johann e Richard), Beethoven, Schubert, Haendel, Penderecki, Liszt, Ligeti; inspirou-se nas pinturas de Gainsborough, Reynolds, Chardin, Watteau, Chadowiecki para estabelecer o virtuosismo estético definitivo na sétima arte. Ganhou o reconhecimento dos estúdios, em especial da Warner Bros., que lhe conferia autonomia em troca do prestígio do diretor.

Kubrick buscou na diversidade de outras artes
elementos para enriquecer a sua própria.
Literatura, música e pintura abrilhantaram
a sua obra.

Conquistou a independência. Cativou o público. Impressionou a crítica. Generalista!





https://www.linkedin.com/pulse/generalista-ou-especialista-kubrick-parece-ter-resposta-rodrigo-costa

IBGE publica Plano de Dados Abertos

Pesquisas, estatísticas e indicadores serão disponibilizados em formato aberto

Pesquisadores, professores universitários, estudantes, empresários, representantes de Organizações da Sociedade Civil e demais cidadãos serão beneficiados com a publicação de dados abertos pelo Instituto Brasileiro de Geografia e Estatística (IBGE). Todas as pesquisas, estatísticas e indicadores elaborados pelo instituto serão publicados em formato aberto. Divulgado na última semana, o calendário de disponibilização está no Plano de Dados Abertos (PDA) do IBGE para o próximo biênio.

“A missão do IBGE é retratar o Brasil com informações necessárias ao conhecimento de sua realidade e ao exercício da cidadania. Portanto, para o instituto é fundamental dar transparência aos dados que são produzidos”, explica Arnaldo Barreto, diretor substituto de Informática do IBGE. Para ele, a elaboração do PDA pelo órgão é um marco para a implantação de um instrumento de planejamento e coordenação de ações de divulgação de dados.

Dados e metadados do Cadastro Central de Empresas, do Censo Agropecuário, do Censo Demográfico e do Índice Nacional de Preços ao Consumidor Amplo (IPCA) são exemplos de pesquisas e indicadores que já foram disponibilizados em formato aberto pelo IBGE. Encontram-se também divulgados dados abertos da Contagem da População, da Classificação Nacional de Atividades Econômicas, Pesquisa Anual de Serviços e da Pesquisa das Características Étnico-raciais da População.

Segundo Barreto, a publicação de dados abertos para a sociedade é um ganho para a elaboração e desenvolvimento de ações governamentais. “A discussão de políticas públicas entre o cidadão e o governo fica mais madura, pois se baseia em fatos e dados oficiais, construídos com metodologias internacionalmente aceitas e coletadas de maneira transparente”, afirma o diretor substituto.

Dados Abertos

A divulgação do PDA pelo IBGE atende ao estabelecido pelo Decreto nº 8.777, de maio de 2016, que criou a Política de Dados Abertos da Administração Pública Federal (APF). Os dados são abertos quando podem ser tratados e trabalhados por pessoas e máquinas. Qualquer cidadão pode livremente usá-los, reutilizá-los e redistribuí-los, estando sujeito, no máximo, à exigência de creditar a sua autoria.

“De acordo com o decreto, todos os órgãos federais têm de elaborar o seu planejamento e a equipe de Dados Abertos do Ministério do Planejamento está à disposição para auxiliar os órgãos neste trabalho”, afirma Marcelo Pagotti, secretário de Tecnologia da Informação do Ministério do Planejamento, Desenvolvimento e Gestão (MP).

O Portal de Dados Abertos (dados.gov.br) conta atualmente com 1.122 conjuntos de dados em formato aberto.

fonte

Não posso fazer tijolos sem barro

Sherlock Holmes

"Dados! Dados!", gritou impaciente.
"Eu não posso fazer tijolos sem barro."
As Faias Cor de Cobre





E você? Como tomas suas decisões?
Tem o apoio de informações precisas sobre o seu negócio?

conheça nossos serviços





O poder dos Sistemas de Apoio à Decisão (SAD)

Também chamados de Decision Suport System (DSS), os Sistemas de Apoio à Decisão (SAD) se utilizam de uma série de conceitos, técnicas e ferramentas para transformar dados em informações úteis para auxiliar a tomada de decisões. Para a elaboração de um sistema deste tipo, normalmente muitos profissionais são envolvidos, principalmente nas áreas da Tecnologia da Informação e Comunicação (TIC) e de Negócios e, especificamente, nas áreas de Business Intelligence (BI), Business Analytics (BA), Data Mining, Machine Learning, Estatística, Banco de Dados, Infraestrutura de Software, Inteligência Competitiva, Marketing, Engenharia e Gestão do Conhecimento, entre outras. A interação de distintos perfis de profissionais garante, além da performance e segurança, que os pontos importantes para a instituição (Indicadores Chave - KPI) sejam definidos pelas áreas que têm o devido conhecimento, maximizando o sucesso dos projetos.

Cubo Analítico

Com todos os Indicadores Chave (KPI) definidos, todas as regras de negócio documentadas e a origem de todos os dados conhecida, se inicia o desenvolvimento do SAD. A primeira etapa consiste em ler os dados de todas as fontes definidas no projeto, integrando-os em um grande armazém de dados, o Data Warehouse (DW).

A partir daí vem a grande sacada do Business Intelligence: são criados os Cubos Analíticos, também chamados de Cubos Multidimensionais, um para cada fato a ser analisado e sem limite de quantidade de Dimensões.

Um único cubo deve ser capaz de oferecer, com muita agilidade, todas as informações que um gestor necessita sobre o fato que o cubo analisa. #Todas.

O exemplo ao lado é uma representação gráfica (gif) de um cubo de Movimentações Financeiras composto por 3 dimensões:

  • Tipo de Movimentação Financeira (o que);
  • Data (quando) e
  • Localidade (onde)

Cada uma das dimensões pode ser utilizada para filtrar os dados e selecionar apenas o período desejado. A porção em vermelho corresponde a seleção feita e no último quadro do gif percebemos o quadrado que indica a intersecção de todos os filtros, ou seja, a resposta desejada.

Filtros aplicados: Tipo de movimentação = Vendas, Data = Ano de 2017, Localidade = Estado de São Paulo.

Painéis Interativos

Agora que o cubo analítico é capaz de dar todas as respostas necessárias ao gestor, a próxima etapa é criar painéis interativos (dashboards) que permitam ao próprio usuário refinar suas consultas, simplesmente selecionando por exemplo o Ano e o Mês, sempre com a possibilidade de filtrar ainda mais os dados, clicando nos gráficos (de barras, pizza, etc.) e obtendo respostas precisas e praticamente automáticas, pois todas as técnicas e ferramentas utilizadas permitem que estes dados sejam pré-computados e de fácil acesso. Tendências e desvios do padrão nos dados da instituiçao são facilmente encontrados, visualmente, de forma clara e intuitiva, conforme alguns exemplos abaixo:

Caso Toyota

No final dos anos 90, a empresa enfrentou grandes problemas em sua cadeia de operações. O custo de armazenamento de carros se elevou e ela não estava mais conseguindo fornecer o produto a tempo para seus clientes. Utilizava computadores que geravam uma quantidade enorme de dados e relatórios que não eram utilizados estrategicamente porque nem sempre eram exatos e muitas vezes eram fornecidos tarde demais - o que atrasava a tomada de decisões.

Uma nova CEO foi contratada. Ela identificou algumas soluções: primeiro, a necessidade de um Data Warehouse - um repositório central de dados, organizado e de fácil acesso. Segundo, a necessidade de implementação de ferramentas de software para efetuar a manipulação desses dados. O novo sistema implantado infelizmente não funcionou de maneira correta: a entrada de dados históricos incluiam anos de erros humanos que não foram detectados, dados duplicados, inconsistentes e falta de importantes informações. Tudo isso gerou análises e conclusões precipitadas sobre o funcionamento da distribuidora.

Apenas em 1999 a empresa resolveu implantar uma plataforma de Business Intelligence. Em questão de dias o sistema apresentou bons resultados. Por exemplo, descobriram que a empresa era cobrada duas vezes por um envio especial por trem (um erro de US$ 800.000). Entre 2001 e 2005, o volume de carros negociados aumentou em 40%, o tempo de trânsito foi reduzido em 5%. Esses e vários outros  benefícios ajudaram a Toyota a alcançar as maiores margens de lucro no mercado automotivo desde 2003, e estão aumentando consistentemente a cada ano desde então. Além disso, um estudo realizado pela IDC Inc. em 2011, indicou que a instituição alcançou, naquele ano, um retorno de pelo menos 506% sobre o investimento em BI. Fonte

Pirâmede da Inteligencia

Esse é apenas um dos inúmeros casos que ilustram a eficiência dessas soluções capazes de integrar e interpretar Dados, transformando-os, de alguma forma, em Informação relevante ao seu negócio, possibilitando, com a devida análise, a criação de Conhecimento. Através da utilização e da gestão deste conhecimento nasce a Inteligência.

Conclusão

Mais de 15 anos passaram desde que a Toyota adotou o BI. Atualmente, gera-se mais de 2.5 quintilhões de bytes de dados diariamente no mundo, sendo que 90% dos existentes hoje foram criados nos últimos 2 anos. A tendência é que esse número cresça de uma forma cada vez mais rápida. 

Uma Solução de Apoio à Decisão não precisa custar milhões de dólares nem exigir a venda casada de equipamentos, treinamentos, consultorias e serviços. Pelo contrário, com software livre e com o respaldo de uma consultoria especializada pode-se atingir resultados excelentes e sustentáveis utilizando o equipamento já existente, com qualquer sistema operacional do mercado, podendo ser acessado desde celulares e computadores até mesmo em grandes painéis televisores. Isto tudo com toda a segurança e liberdade de quem tem todo o código fonte em seu poder.

E você, o que vai fazer com os seus dados?

O que é uma Solução de Apoio à Decisão?

Solução de Apoio à Decisão (SAD) também conhecido Business Intelligence ou Business Analytics, é a especialidade da e-Setorial: transformar dados em informações úteis para auxiliar a tomada de decisões. A partir da integração de dados oriundos de diversas fontes, é possível organizá-los, categorizá-los e filtrá-los em uma única plataforma. Oferecemos ferramentas visuais intuitivas que permitem a análise e compartilhamento das informações com sua equipe, assegurando a confiabilidade da escolha do gestor. 

(modelos de dashboards oferecidos pela e-Setorial)

Confira o Workflow das nossas Soluções de Apoio à Decisão.

 

Não entendeu muito bem? A gente exemplifica. O seguinte caso aconteceu com uma distribuidora de carros da Toyota: 

No final dos anos 90, a empresa enfrentou grandes problemas em sua cadeia de operações. O custo de armazenamento de carros se elevou e ela não estava mais conseguindo fornecer o produto a tempo para seus clientes. Utilizava computadores que geravam uma quantidade enorme de dados e relatórios que não eram utilizados estratégicamente porque nem sempre eram exatos e muitas vezes eram fornecidos tarde demais - o que atrasava a tomada de decisões.

Uma nova CEO foi contratada. Ela identificou algumas soluções: primeiro, a necessidade de um Data Warehouse - um repositório central de dados, organizado e de fácil acesso. Segundo, a necessidade de implementação de ferramentas de software para efetuar a manipulação desses dados. O novo sistema implantado infelizmente não funcionou de maneira correta: a entrada de dados históricos incluiam anos de erros humanos que foram desapercebidos, dados duplicados, inconsistentes e falta de importantes informações. Tudo isso gerou análises e conclusões precipitadas sobre o funcionamento da distribuidora.

Apenas em 1999 a empresa resolveu implantar uma plataforma de Business Intelligence. Em questão de dias o sistema apresentou bons resultados. Por exemplo, descobriram que a empresa era cobrada duas vezes por um envio especial por trem (um erro de US$ 800.000). Entre 2001 e 2005, o volume de carros negociados aumentou em 40%, o tempo de trânsito foi reduzido em 5%. Esses e vários outros  benefícios ajudaram a Toyota a alcançar as maiores margens de lucro no mercado automotivo desde 2003, e estão aumentando consistentemente a cada ano desde então. Além disso, um estudo realizado pela IDC Inc. em 2011, indicou que a instituição alcançou, naquele ano, um retorno de pelo menos 506% sobre o investimento em BI.

dado-informacao-conhecimento-inteligencia

Esse é apenas um dos inúmeros casos que ilustram a eficiência dessas soluções capazes de integrar e interpretar dados, transformando-os, de alguma forma, em Informação relevante ao seu negócio, possibilitando, com a devida análise, a criação de Conhecimento. Através da utilização e da gestão deste conhecimento nasce a Inteligência. 

Mais de 15 anos passaram desde que a Toyota adotou o BI. Atualmente, geramos mais de 2.5 quintilhões de bytes de dados diariamente, sendo que 90% dos existentes hoje foram criados nos últimos 2 anos. A tendência é que esse número cresça de uma forma cada vez mais rápida. 

E você, o que vai fazer com os seus dados? 

Seis mitos e equívocos a respeito do BI - Business Intelligence

É preciso rever atitudes frente à análise de dados e abandonar alguns conceitos ultrapassados

Quantas das nossas crenças são tão profundas que nunca pensaríamos em questioná-las? Na realidade, mais do que julgamos. Os seres humanos não são tão racionais como pensamos, e, de fato, não há tempo para pesquisar cada alegação que fazemos.

Temos o hábito de repetir o que os outros dizem e aceitar o que dizem como verdade. Algumas dessas premissas são verdadeiras, mas é claro que, em alguns casos, podemos estar sendo levados a acreditar em uma mentira.

Por exemplo, é um equívoco comum que a Grande Muralha da China é a única estrutura feita pelo homem visível do espaço; é possível também observar, a partir do espaço, as cidades e alguns edifícios claramente definidos. Da mesma forma, os Vikings são vulgarmente representados como tendo capacetes com chifres; no entanto, este detalhe da indumentária deste povo foi criado pelo compositor Wagner, na sua ópera The Ring Cycle.

Estes equívocos, infelizmente, não estão restritos a curiosidades interessantes. Mitos e equívocos podem ser encontrados também no mundo dos negócios, muito embora nos protegermos deles possa sair muito caro.

Diante das rápidas alterações na indústria de Business Intelligence (BI) nos últimos dez anos, muitas vezes tendemos acreditar em mitos no que diz respeito à análise de dados. Meu objetivo tentar desfazer alguns deles, assim como conceitos ultrapassados, de uma vez por todas.

Vejamos seis mitos sobre BI:

1 - Apenas os gestores responsáveis por decisões precisam de BI

Apesar de anos de esforço e de enorme investimento, o BI não chega às mãos de todos os responsáveis por processos de decisão. O uso de BI é muitas vezes limitado a um certo número de gestores com poder de decisão dentro de uma organização, e este tipo de ferramenta deve ser acessível a todos os tipos de colaboradores, uma vez que o processo de decisão é cada vez mais amplo dentro das organizações e empresas, e ao fato de todas as decisões precisarem de dados.

Curiosamente, este conceito remonta a estruturas hierárquicas antiquadas no século XIX – muito antes da existência do software. Quando implantado pela primeira vez, o BI utilizou estas estruturas, o que significava que o seu objetivo tinha a ver com auditoria e controle, e não com permitir que as pessoas tomassem melhores decisões através da análise.

Hoje em dia, e apesar do BI ter se tornado mais sofisticado, este pensamento ainda está em vigor, muitas vezes, o que significa que a maioria das pessoas não está extraindo benefícios das camadas extra de dados a que têm acesso.

2 - Uma boa ferramenta BI gera bons relatórios

Quase todos os projetos de BI começam com o objetivo louvável de desenvolver relatórios de gestão. Muitas vezes, relatórios financeiros. E, quase sempre,  é indicado ao departamento de TI o que a ferramenta de BI deve fazer. No entanto, o problema é que a informação que se obtém é estática e “fala” pouco ao usuário.

Isto significa que é quase impossível “interrogar” os dados e, no entanto, a capacidade de análise devia ser a característica chave de um bom sistema de BI. Os usuários  precisam ser capazes de interagir, questionar os dados e construir sistemas de BI que possam ajudar a explorar causas profundas, inter-relações, tendências e mudanças nos dados.

3 - O BI In-Memory resolve o problema da adoção

No mundo moderno, qualquer coisa que demore mais do que uma busca no Google para gerar uma resposta corre o risco de ser abandonada por seus usuários. No entanto, há mais na adoção do que a velocidade em si. Mesmo que sejam rápidos, os sistemas de BI podem tornar-se rígidos devido à falta de um poderoso back-end e ao tempo gasto pelos usuários na produção de relatórios ou visualizações. Resultado? O usuário pode deixar de querer usar os sistemas…

Para criar uma cultura de analítica, o software deve ser rápido, simples de usar e flexível o suficiente para permanecer relevante para o usuário.

4 - Não ter em casa as habilidades analíticas necessárias

Por que pagar analistas e cientistas de dados para interpretar informações? Os seres humanos têm capacidades analíticas naturais, incluindo o reconhecimento de padrões (distinguindo entre aglomerados e pontos individuais), detecção de alterações (notando algo diferente em uma sala) e categorização (detecção de relevância).

Em vez disso, as empresas precisam de um software que democratize a análise de dados para todos e use as habilidades analíticas inatas que todos temos. As organizações precisam democratizar a análise de dados e colocá-la diretamente nas mãos dos seus colaboradores para gerar melhores resultados.

5 - Precisamos de mais recursos visuais para ajudar as pessoas a “obterem” dados

É verdade que cerca de 60% do nosso processamento neural é dedicado a coisas que vemos e, portanto, as visualizações de dados são muito importantes. No entanto, uma imagem por si só não é suficiente. Algumas ferramentas têm visualizações bonitas, mas não permitem a navegação nos dados e, obviamente, esse fato é uma maldição, dadas as capacidades dos gadgets dos dias de hoje, usados por colaboradores/usuários que procuram cada vez mais informações na Internet, através de diversas aplicações.

É fundamental que os usuários possam interagir com as visualizações, para que possam compreender o seu significado e fazer novas descobertas. Olhar para um relatório limitado estática ou interativamente coloca um fim a este processo.

6 - Melhor acesso aos dados significa melhores decisões

Ter toda a informação do mundo não ajudou os banqueiros a evitar a crise financeira de 2009. O fato de os dados estarem lá não significa que eles estejam sendo usados de maneira correta.

A melhoria na capacidade de tomada de decisões requer prática e competência. Estas aptidões nascem do desenvolvimento de competências que ajudam os usuários a protegerem-se de situações inesperadas e de uma maior frequência de determinadas tarefas.

Malcolm Gladwell escreveu que levamos 10 mil horas para que possamos ser especialistas em qualquer atividade. Assim, também os usuários que trabalham com qualquer sistema de BI precisam continuar a praticar a análise de dados. Essa prática vai ajudá-los a tomar decisões mais inteligentes e a descobrir conceitos mais úteis.

Em 2016, as empresas procuram oportunidades de crescimento e é fundamental que não estejam restringidas pelo peso da crença em mitos. Elas precisam rever as suas atitudes frente à análise de dados e tomar medidas para se moverem na direção certa. Em última análise, tomar essas medidas pode melhorar as operações de negócios – que é o objetivo de qualquer empresa. E nesse fato tenho a certeza que podemos sempre acreditar.

fonte

Serviços

Em busca da informação gerencial estratégica, reunimos as técnicas mais modernas de software, processos e pessoas especializadas para conceber soluções completas de acordo com a sua necessidade. O objetivo é fazer você concentrar seus esforços naquilo que importa: o seu produto ou serviço!

A e-Setorial disponibiliza uma completa gama de serviços voltados para:

Soluções de Apoio à Decisão - Business Intelligence-BI

A especialidade da e-Setorial é transformar dados em informações úteis para auxiliar a tomada de decisões, utilizando software livre para criar soluções de alto desempenho e tecnologia de ponta, sem custos de licença.

Estudamos e mapeamos todos os processos envolvidos, entregando soluções completas de acordo com a sua necessidade. Inclusive os requisitos de segurança e registro dos sistemas de gestão ISO 9001, 14001 e 18001.

A partir da integração de dados oriundos de diversas fontes, é possível organizá-los, categorizá-los e filtrá-los em uma única plataforma, assegurando a confiabilidade da decisão tomada.

Também chamados de Decision Suport System (DSS), os Sistemas de Apoio à Decisão (SAD) se utilizam de uma série de conceitos, técnicas e ferramentas para transformar dados em informações úteis para auxiliar a tomada de decisões. Aqui na e-Setorial gostamos de chamar o resultado do nosso trabalho de Soluções de Apoio à Decisão devido ao carater definitivo, eficaz e eficiente que atingem nas instituições onde atuamos.

TabletPara a elaboração de um sistema deste tipo, normalmente muitos profissionais são envolvidos, principalmente nas áreas da Tecnologia da Informação e Comunicação (TIC) e de Negócios e, especificamente, nas áreas de Business Intelligence (BI), Business Analytics (BA), Data Mining, Machine Learning, Estatística, Banco de Dados, Infraestrutura de Software, Inteligência Competitiva, Marketing, Engenharia e Gestão do Conhecimento, entre outras.

A interação de distintos perfis de profissionais garante, além da performance e segurança, que os pontos importantes para a instituição (Indicadores Chave - KPI) sejam definidos pelas áreas que têm o devido conhecimento, maximizando o sucesso dos projetos.


Workflow SAD

  1. Fontes: extração de dados de qualquer origem.
  2. Coletor: responsável pela coleta dos dados.
  3. Transformação: limpa, desnormaliza e pré-calcula os dados antes de serem carregados ao data warehouse. Assim, as análises são otimizadas - possuindo dados mais fáceis, limpos e consistentes.
  4. Data Warehouse: bancos de dados analíticos.
  5. Cache em memória: as métricas mais utilizadas são lidas e calculadas com antecedência a fim de assegurar uma performance otimizada.
  6. Camada de metadados: capacidade de alteração nas nomenclaturas dos dados, de forma a facilitar a compreensão da equipe tomadora de decisões.
  7. Visualização: depois de processados, os dados estão prontos para serem consumidos. Oferecemos ferramentas visuais intuitivas que permitem a análise e compartilhamento das informações com sua equipe em toda a rede.
  8. Insights inteligentes para melhorar seus resultados.

Vantagens

  • Painéis interativos, com informações concisas.
  • Confiabilidade nas informações.
  • Percepções oportunas, precisas, valiosas e práticas.
  • Integração de dados de diversas fontes em um único armazém de dados.
  • Todos os dados são atualizados diariamente.
  • Agilidade no processo de tomada de decisões.
  • Simplificação de processos e redução de custos.
  • Entenda quem são seus melhores clientes, funcionários e produtos.
  • Informação detalhada e de fácil acesso.
  • Possibilidade de integração com softwares pré-existentes.

Cubo Analítico

Com todos os Indicadores Chave (KPI) definidos, todas as regras de negócio documentadas e a origem de todos os dados conhecida, se inicia o desenvolvimento do SAD. A primeira etapa consiste em ler os dados de todas as fontes definidas no projeto, integrando-os em um grande armazém de dados, o Data Warehouse (DW). Nestas etapas contemplamos os itens 1 a 4 do workflow.

A partir daí vem a grande sacada do Business Intelligence: são criados os Cubos Analíticos, também chamados de Cubos Multidimensionais, um para cada fato a ser analisado e sem limite de quantidade de Dimensões.

Um único cubo deve ser capaz de oferecer, com muita agilidade, todas as informações que um gestor necessita sobre o fato que o cubo analisa. #Todas.

Cubo Analítico

O exemplo ao lado é uma representação gráfica (gif) de um cubo de Movimentações Financeiras composto por apenas 3 dimensões:

  • Tipo de Movimentação Financeira (o que);
  • Data (quando);
  • Localidade (onde).

Cada uma das dimensões pode ser utilizada para filtrar os dados e selecionar apenas o período desejado. A porção em vermelho corresponde a seleção feita e no último quadro do gif percebemos o quadrado que indica a intersecção de todos os filtros, ou seja, a resposta desejada.


Filtros aplicados:
  • Tipo de Movimentação = Vendas;
  • Data = Ano de 2017;
  • Localidade = Estado de São Paulo.

Painéis Interativos

Agora que o cubo analítico é capaz de dar todas as respostas necessárias ao gestor, a próxima etapa é criar painéis interativos (dashboards) que permitam ao próprio usuário refinar suas consultas, simplesmente selecionando por exemplo o Ano e o Mês, sempre com a possibilidade de filtrar ainda mais os dados, clicando nos gráficos (de barras, pizza, etc.) e obtendo respostas precisas e praticamente automáticas, pois todas as técnicas e ferramentas utilizadas permitem que estes dados sejam pré-computados e de fácil acesso.

Tendências e desvios do padrão nos dados da instituiçao são facilmente encontrados, visualmente, de forma clara e intuitiva, conforme exemplos de dashboards abaixo, alguns da e-Setorial e outros da Pentaho:

Conclusão

"Uma Solução de Apoio à Decisão não precisa custar milhões de dólares tampouco exigir a venda casada de equipamentos, treinamentos, consultorias e serviços. Pelo contrário, com software livre pode-se atingir resultados excelentes e sustentáveis utilizando o equipamento já existente, com qualquer sistema operacional do mercado, podendo ser acessado desde celulares e computadores até mesmo em grandes painéis televisores. Isso tudo com toda a segurança e liberdade de quem tem todo o código fonte em seu poder."

E você?
Vai tomar melhores decisões e se destacar da concorrência?
Tome decisões inteligentes.





Go open source



Volume + Variedade + Veracidade + Velocidade + Valor. Entenda os 5 Vs do Big Data.

Apesar de bastante popular, ainda existem muitas dificuldades em conceituar o Big Data. Para auxiliar na compreensão, você precisa entender seus 5 V's:

Volume

Refere-se à quantidade de dados gerados por segundo. Não estamos falando de Terabytes, e sim de Zettabytes ou Brotonbytes. Estima-se que o volume produzido dobre a cada 18 meses. É impossível armazenar e analisar essa quantidade de dados em uma tecnologia de banco de dados tradicional. 


Variedade

Refere-se à variedade de fontes de onde surge essa imensa quantidade de dados. São estruturados (minoria) e não estruturados (maioria), como e-mails, midias sociais, documentos eletrônicos, apresentações, mensagens instantâneas, video, etc.

Veracidade

Refere-se à importância do filtro. Em meio ao enorme volume e variedade de informações, é preciso destacar o que é rico em conteúdo importante para a empresa. 

Velocidade

Refere-se à velocidade em que os dados são gerados e movimentados. Muitas vezes se faz necessários agir praticamente em tempo real sobre o grande volume de informações gerado por segundo: big data permite essa análise sem necessariamente armazená-las em um banco de dados.

Valor

O último V é o que torna tudo relevante: Refere-se ao fato de que de nada adianta você ter acesso ao Big Data se ele não for passível de análise e de ser aplicado no processo de tomada de decisão da empresa, gerando valor aos resultados.

 

Produzimos um fluxo contínuo de informações que podem e devem ser monitoradas e analisadas. Entender os 5 V's é apenas o passo inicial para compreender os impactos potenciais dessa tecnologia - o que é essencial para organizações que querem se manter competitivas na economia digital. 

Conheça o serviço de Análise de Big Data da e-Setorial clicando aqui