Qual a perspectiva das mulheres na tecnologia?

Qual a perspectiva das mulheres na tecnologia?

Metade das brasileiras ainda reconhece que enfrentam mais desafios para crescer e se tornar tão bem-sucedidas quanto os homens.

Três em quatro mulheres brasileiras (75%) que trabalham no setor de tecnologia – e as estudantes interessadas na área – afirmam que ser mulher impacta positivamente sua capacidade de seguir uma carreira no setor. O cenário favorável ocorre principalmente e graças ao reconhecimento de poucas mulheres atualmente no setor (35%), uma oportunidade reconhecida especialmente pelas universitárias (46%) e estudantes do Ensino Médio (43%).

Os dados são de uma pesquisa realizada pela Booking.com, empresa de e-commerce de viagens e atuante do setor de tecnologia digital, que tem como objetivo entender melhor o contínuo desafio da diversidade de gênero no setor de tecnologia e as percepções, experiências e ambições de mulheres do mundo todo com relação às oportunidades de carreira no setor de tecnologia.

Pesquisa

Realizada com 6.898 pessoas de dez países (mulheres que trabalham com tecnologia e estudantes interessadas em seguir uma carreira no mercado), a pesquisa revela o porque que as mulheres do mundo todo consideram o setor de tecnologia atrativo e possui uma visão positiva do potencial que ele oferece.

Entretanto, a parcialidade no recrutamento, a atual formação do mercado de trabalho e a falta de tomadoras de decisão e exemplos conhecidos são as principais dificuldades que elas enfrentam.

As mulheres brasileiras também têm interesse no setor de tecnologia por diversos motivos – elas consideram uma área inovadora (61%), criativa (50%) e inspiradora (36%), além de oferecer opções de emprego que as desafie (27%). Para muitas, garantir uma posição na área de tecnologia se equipara a conseguir seu ‘emprego dos sonhos’ ou carreira ideal.

Ao serem questionadas sobre quais critérios as mulheres brasileiras usariam para definir seu ‘emprego dos sonhos’, nove em dez citaram um trabalho inspirador (92%), seguido por um trabalho que permita que elas trilhem seu próprio caminho (90%) e um trabalho que se alinhe com suas habilidades naturais (88%).

Parcialidade no recrutamento

Apesar do apelo do setor da tecnologia e as possíveis oportunidades, a pesquisa  indica que as mulheres do mundo todo ainda têm dúvidas e, em certos momentos na sua busca por uma carreira na área, consideram o fato de ser mulheres um ponto negativo. 

Cultura sexista?

Para metade das brasileiras (50%) este é o caso, pois o setor de tecnologia é amplamente dominado pelos homens, seguido por mais de um terço (38%) que cita uma cultura de trabalho sexista como um obstáculo.

É interessante ver que as percepções de parcialidade de gênero no processo de contratação têm grande variação em diferentes mercados. No Brasil, uma em cada duas mulheres (50%) sente que a parcialidade de gênero durante o recrutamento impacta negativamente as oportunidades de garantir uma carreira no setor, o maior número entre os países pesquisados, enquanto menos mulheres em países europeus se sentem desta forma (18% nos Países Baixos e 22% no Reino Unido e na Alemanha).

Sensação de inferioridade

Além disso, quase uma em cada cinco mulheres brasileiras (21%) sente que a falta de tomadoras de decisão trava uma carreira potencial na área de tecnologia, algo que ecoa pela maioria das alunas de Ensino Médio (50%). Esses fatores contribuem para o fato de que mais de quatro em cinco mulheres brasileiras sentem que têm mais desafios para entrar (86%), crescer e ser bem-sucedidas (87%) em certas carreiras do que os homens.

“As mulheres ainda têm pouquíssima representação no setor da tecnologia. O que nossa pesquisa agora nos mostra é exatamente onde as mulheres encontram as maiores barreiras e onde está a oportunidade para iniciar a mudança,” afirma Gillian Tans, CEO da Booking.com. “O otimismo e a ambição que vemos nas mulheres que querem ser bem-sucedidas no setor da tecnologia ou de TI são inspiradores, particularmente entre as gerações mais jovens, que veem o potencial de uma carreira na tecnologia como uma das aspirações que elas têm para si mesmas.”

“Mas, para empoderar as mulheres a serem bem-sucedidas na área, nós, como mercado, temos a oportunidade de fazer muito mais. Isso inclui a possibilidade de termos mais mulheres como líderes, eliminando a parcialidade de gênero que começa no processo de recrutamento, antes mesmo de uma mulher ser contratada, e investir em iniciativas para destacar a área como atrativa e acolhedora em todos os momentos, desde as iniciantes até a liderança sênior,” declarou Tans.

Oportunidade de mudança

A pesquisa reafirma o desejo do setor de tecnologia de conseguir a próxima geração de talentos, além de simultaneamente destacar onde os esforços para diminuir a diferença entre os gêneros começam. No Brasil, as alunas de Ensino Médio (29%) e as universitárias (26%) sentem que uma carreira na área de tecnologia oferece a liberdade de serem criativas em seu trabalho.

As alunas de Ensino Médio são atraídas pelo mercado da tecnologia principalmente porque sentem que possuem a chance de serem bem-sucedidas ainda jovens (30% vs. 22% entre profissionais experientes da área), além da possibilidade de trilhar seu próprio caminho profissional (26% vs. 24% entre profissionais experientes da área). Além de tudo isso, as alunas querem ser inspiradas pela carreira escolhida, conforme mencionado por 30% das alunas de Ensino Médio e 16% das universitárias.

O mercado 

Enquanto o setor de tecnologia hoje tem resultados em várias dessas frentes, as empresas de tecnologia – e o mercado no geral – possuem uma maior oportunidade de incentivar as mulheres que pretendem trabalhar neste mercado, não apenas para estimular suas ambições e articular formas de serem excelentes na área, mas também para eliminar os obstáculos que as desanimam.

“O setor da tecnologia tem um potencial tremendo de cumprir os critérios citados pelas mulheres do mundo todo ao definirem seu ‘emprego dos sonhos’ e aspirações de carreira”, comentou Tans. “Ajudar a realizar isso e levar mais mulheres para a tecnologia é um princípio que vai além da educação, do desenvolvimento social, responsabilidade corporativa e iniciativas governamentais. 

Se o setor da tecnologia quiser reter um fluxo equilibrado de talentos no futuro, todos devemos trabalhar incansavelmente para incentivar as mulheres durante sua educação formal a agir como fontes positivas de influência no desenvolvimento do conhecimento das meninas na área de ciências e matemática.”

Preencher a lacuna de gêneros

Com relação às opções de carreira, o aprendizado e a educação desde crianças há uma influência significativa nas eventuais opções de carreira das mulheres, de acordo com a pesquisa. Cerca de pouco mais de quatro em cinco mulheres brasileiras afirmam que suas opções de carreira são influenciadas pelas habilidades aprendidas na escola e na universidade (85%) e pelas matérias estudadas (84%).

Fonte: https://www.itforum365.com.br/carreira/qual-perspectiva-das-mulheres-na-tecnologia/

Guia prático para dominar Machine Learning

Guia prático para dominar Machine Learning

Sua aplicação pode provocar um impacto profundo em seu negócio, mas o hype semeia confusão. Confira aqui como a tecnologia pode ser usada hoje.

O Machine Learning está transformando negócios. Mas ainda que a tecnologia avance, as empresas continuam lutando para tirar proveito dela, em grande parte porque não entendem como implementar estrategicamente Machine Learning no atendimento de objetivos de negócios. O Hype não ajudou, semeando confusão sobre o que é exatamente a tecnologia, o quão bem funciona e o que pode fazer para sua empresa.

Aqui, nós fornecemos um olhar claro sobre o aprendizado da máquina e como pode ser usado hoje.

O que é? Machine Learning é um subconjunto de Inteligência Artificial que permite que os sistemas aprendam e prevejam resultados sem programação explícita. Muitas vezes, é usado de forma intercambiável com o termo IA porque é a técnica de IA que teve o maior impacto no mundo real até agora, e é o que você provavelmente usará em sua empresa. Chatbots, recomendações de produtos, filtros de spam, carros autônomos e uma enorme variedade de outros sistemas aproveitam o Aprendizado de Máquinas, assim como “agentes inteligentes” como Siri e Cortana.

Em vez de escrever algoritmos e regras que tomem decisões diretamente, ou tentar programar um computador para “ser inteligente” usando conjuntos de regras, exceções e filtros, o Machine Learning ensina sistemas informáticos a tomar decisões aprendendo com grandes conjuntos de dados. Os sistemas baseados em regras rapidamente se tornam frágeis quando precisam explicar a complexidade do mundo real; A Aprendizagem Automática pode criar modelos que representam e generalizam padrões nos dados que você usa para treiná-lo, e pode usar esses modelos para interpretar e analisar novas informações.

O Aprendizado Automático da máquina é adequado para a classificação, que inclui a capacidade de reconhecer texto e objetos em imagens e vídeos, bem como encontrar padrões e associações  em dados ou segmentar dados em clusters (por exemplo, encontrar grupos de clientes). O Machine Learning também é adepto da previsão , como o cálculo da probabilidade de eventos ou resultados de previsão. E pode ser usado para gerar dados faltantes; por exemplo, a versão mais recente do CorelDRAW usa Machine Learning para interpolar o curso suave que você está tentando extrair de vários cursos difíceis que você faz com a caneta.

O coração do Machine Learning são os algoritmos. Alguns, como regressões, k-means clustering e suporte de máquinas vetoriais, estão em uso há décadas. A chave para o uso efetivo  está na combinação do algoritmo certo com o seu problema.

Redes Neurais Uma Rede Neural é um algoritmo de Machine Learning construído em uma rede de nós interconectados que funcionam bem para tarefas como reconhecimento de padrões.

Não são um novo algoritmo, mas a disponibilidade de grandes conjuntos de dados e processamento mais poderoso (especialmente as GPUs, que podem lidar com grandes fluxos de dados em paralelo) as tornaram úteis na prática. Apesar do nome, as Redes Neurais são baseadas apenas vagamente em neurônios biológicos. Cada nó em uma rede neural possui conexões para outros nós que são acionados por entradas. Quando desencadeada, cada nó adiciona um peso à sua entrada para marcar a probabilidade de que ele faça ou não a função desse nodo. Os nós são organizados em camadas fixas tarvés das quais os dados fluem, ao contrário do cérebro, que cria, remove e reorganiza regularmente conexões de sinapse.

Deep Learning O Deep Learning é um subconjunto do Machine Learning baseado em Redes Neurais profundas, que têm muitas camadas para realizar a aprendizagem em várias etapas. As chamadas Convolutional Deep Neural Networksgeralmente realizam o reconhecimento da imagem ao processar uma hierarquia de recursos em que cada camada procura objetos mais complicados. Por exemplo, a primeira camada de uma rede profunda que reconhece raças de cães pode ser treinada para encontrar a forma do cachorro em uma imagem, a segunda camada pode observar texturas como pele e dentes, com outras camadas reconhecendo ouvidos, olhos, caudas e outras características e o nível final que distingue as diferentes raças. Já as Recursive Deep Neural Networks são usadas ​​para reconhecimento de fala e processamento de linguagem natural, onde a seqüência e o contexto são importantes.

Existem muitos kits de ferramentas de aprendizado profundo de código aberto disponíveis que você pode usar para criar seus próprios sistemas. Theano , Torch Caffe são escolhas populares, e o TensorFlow, do Google e o Microsoft Cognitive Toolkit permitem que você use vários servidores para criar sistemas mais poderosos com mais camadas em sua rede.

O Microsoft Distributed Machine Learning Toolkit colabora com vários desses kits de ferramentas de Deep Learning e e outras bibliotecas de Machine Learning, e tanto a AWS como a Azure oferecem máquinas virtuais com ferramentas de aprendizado profundas pré-instaladas.

Aprendizado de Máquinas na prática Os resultados do Machine Learning são uma certeza percentual de que os dados que você está procurando correspondem ao que seu modelo está treinado para encontrar. Assim, uma Deep Learning treinada para identificar as emoções de fotografias e vídeos de rostos das pessoas pode marcar uma imagem como “97,6% de felicidade 0,1% tristeza 5,2% surpresa 0,5% neutro 0,2% raiva 0,3% desprezo 0,01% detesto 12% de medo”. ML gera probabilidades e incerteza, não resultados exatos.

O Probabilistic Machine Learning  usa o conceito de probabilidade para permitir que você realize a aprendizagem automática sem a escrita de algoritmos Em vez dos valores estabelecidos das variáveis ​​na programação padrão, algumas variáveis ​​na programação probabilística têm valores que se enquadram em um alcance conhecido e outros têm valores desconhecidos. Trate os dados que deseja entender como se fosse o resultado deste código e você pode trabalhar para trás para preencher o que esses valores desconhecidos deveriam ser para produzir esse resultado. Com menos codificação, você pode fazer mais prototipagem e experimentação. O Probabilistic Machine Learning também é mais fácil de depurar.

Esta é a técnica que o recurso Clutter no Outlook usa para filtrar mensagens que são menos propensas a serem interessantes para você com base nas mensagens que você leu, respondeu e excluiu no passado. Ele foi construído com Infer.NET, um framework .NET que você pode usar para construir seus próprios sistemas probabilísticos.

Já Computação Cognitiva é o termo que a IBM usa para suas ofertas do Watson, porque em 2011, quando uma versão anterior ganhou o Jeopardy, o termo IA não estava na moda; Ao longo das décadas em que foi trabalhado, a IA passou por períodos alternados de hype e fracasso.

O Watson não é uma única ferramenta. É uma mistura de modelos e APIs que você também pode obter de outros fornecedores, como Salesforce, Twilio, Google e Microsoft. Estes oferecem os chamados serviços “cognitivos”, como reconhecimento de imagem, incluindo reconhecimento facial, reconhecimento de fala (falante), compreensão de linguagem natural, análise de sentimentos e outras API de reconhecimento que se parecem com habilidades cognitivas humanas. Quer se trate da Watson ou dos Microsoft Cognitive Services, o termo cognitivo é realmente apenas uma marca de marketing para designar uma coleção de tecnologias (muito úteis). Você poderia usar essas APIs para criar um chatbot a partir de uma página de FAQ existente que pode responder a consultas de texto e também reconhecer fotos de produtos para fornecer as informações de suporte corretas ou usar fotos de etiquetas de prateleiras para verificar os níveis de estoque.

Muitas APIs “cognitivas” usam Deep Learning, mas você não precisa saber como elas foram construídas porque muitos funcionam como APIs REST que você chama de seu próprio aplicativo. Alguns permitem criar modelos personalizados a partir de seus próprios dados. O Salesforce Einstein possui um serviço de reconhecimento de imagem personalizado e as APIs Cognitivas da Microsoft permitem que você crie modelos personalizados para texto, fala, imagens e vídeo.

Isso é facilitado pela transferência de aprendizagem, que é menos uma técnica e mais um efeito colateral útil de redes profundas. Uma Rede Neural Profunda que foi treinada para fazer uma coisa, como traduzir entre inglês e mandarim, descobre uma segunda tarefa, como traduzir entre inglês e francês, de forma mais eficiente. Isso pode ser porque os números muito longos que representam, digamos, as relações matemáticas entre palavras como “bigs” e “larges” são até certo ponto comuns entre as linguas, mas nós realmente não sabemos.

A transferência de aprendizagem não é bem compreendida, mas pode permitir que você obtenha bons resultados de um conjunto de treinamento menor. O Microsoft Custom Vision Service usa transferência de aprendizagem para treinar um sistema que conheça uma imagem em apenas alguns minutos, usando 30 a 50 imagens por categoria, em vez de milhares, geralmente necessárias para obter resultados precisos.

Machine Learning

Crie seu próprio sistema de Machine Learning Se você não quer APIs pré-construídas, e você tem os dados para trabalhar, há uma enorme variedade de ferramentas criar sistemas de Machine Learning, desde scripts R e Python, até análises preditivas usando Spark e Hadoop, para ferramentas específicas da AI e estruturas.

Em vez de configurar sua própria infraestrutura, você pode usar serviços de Deep Learnig na nuvem para criar modelos de dados. Com os serviços em nuvem, você não precisa instalar uma variedade de ferramentas. Além disso, esses serviços desenvolvem mais conhecimentos necessários para obter resultados bem-sucedidos.

Amazon Machine Learning oferece vários modelos de Machine Learning que você pode usar com dados armazenados em S3, Redshift ou R3, mas você não pode exportar os modelos e o tamanho do conjunto de treinamento é bastante limitado. O Azure ML Studio, da Microsoft, por sua vez, possui uma gama mais ampla de algoritmos, incluindo Deep Learning, além de pacotes R e Python, e uma interface gráfica de usuário para trabalhar com eles. Também oferece a opção de usar o Azure Batch para carregar periodicamente conjuntos de treinamento extremamente amplos, e você pode usar seus modelos treinados como APIs para seus próprios programas e serviços. Existem também recursos de aprendizado de máquina, como o reconhecimento de imagens incorporados em bancos de dados em nuvem, como o SQL Azure Data Lake, para que você possa fazer sua máquina aprendendo onde seus dados estão.

Aprendizagem supervisionada Muitas técnicas de Machine Learning utilizam a aprendizagem supervisionada, em que uma função é derivada de dados de treinamento rotulados. Os desenvolvedores escolhem e rotulam um conjunto de dados de treinamento, colocam uma proporção desses dados para testes e marcam os resultados do sistema de Machine Learning para ajudá-lo a melhorar. O processo de treinamento pode ser complexo, e os resultados são muitas vezes probabilidades, com um sistema sendo, por exemplo, 30 por cento mais seguro de ter reconhecido um cachorro em uma imagem, 80 por cento seguro de que encontrado um gato, e talvez até com 2 por cento certeza de ter encontrado uma bicicleta. Os feedeback dos desenvolvedores iajudam o sistema definir a melhor a resposta no futuro.

É importante não treinar o sistema com precisão aos dados de treinamento; Isso é chamado de superposição e significa que o sistema não poderá generalizar para lidar com novas entradas. Se os dados mudam significativamente ao longo do tempo, os desenvolvedores precisarão treinar o sistema devido ao que alguns pesquisadores referem como “ML rot”.

Algoritmos de aprendizado de máquina – e quando usá-los Se você já sabe quais são os rótulos de todos os itens do seu conjunto de dados, atribuir rótulos a novos exemplos é um problema de classificação. Se você está tentando prever um resultado como o preço de venda de uma casa com base em seu tamanho, isso é um problema de regressão porque o preço da casa é uma categoria contínua e não discreta. (Prever se uma casa irá vender por mais ou menos do que o preço pedido é um problema de classificação, porque estas são duas categorias distintas).

Se você não conhece todos os rótulos, não pode usá-los para treinamento; Em vez disso, você classifica os resultados e deixa o seu sistema criar regras que façam sentido, a partir de  respostas corretas ou erradas, no que é conhecido como aprendizagem não supervisionada. O algoritmo de ML não supervisionado mais comum é o clustering, que deriva a estrutura dos seus dados, observando as relações entre variáveis ​​nos dados. O sistema de recomendação de produtos da Amazon que diz o que as pessoas que compraram um item também tendem a comprar usa aprendizado não supervisionado.

Com o reinforcement learning, o sistema aprende como ver ao ver o que acontece. Você configura um conjunto claro de recompensas para que o sistema possa julgar o sucesso de suas ações. O aprendizado de reforço é adequado ao jogo porque há recompensas óbvias. O DeepMind AlphaGo do Google usou o reinforcement learning para aprender Go. O Project Malmo, da Microsoft, permite que os pesquisadores usem o Minecraft como um ambiente de aprendizagem de reforço. E um bot construído com o algoritmo de aprendizagem de reforço da OpenAI recentemente venceu vários jogadores de primeira linha no jogo Dota 2, da Valve .

A complexidade da criação de recompensas precisas e úteis limitou o uso da aprendizagem de reforço, mas a Microsoft vem usando uma forma específica de aprendizagem de reforço chamado contextual bandits (com base no conceito de multi-armed slot machine) para melhorar significativamente as taxas de clique na MSN. Esse sistema já está disponível no Microsoft Custom Decision Service API. A Microsoft também está usando um sistema de aprendizagem de reforço em um piloto onde os chatbots do serviço ao cliente monitoram o quão úteis são suas respostas automatizadas.

Combinando algoritmos de aprendizagem de máquinas para obter melhores resultados Muitas vezes, é preciso mais de um método de Machine Learning para obter o melhor resultado. Os sistemas ensemble learning usam múltiplas técnicas de ML combinadas. Por exemplo, o sistema DeepMind, que bateu jogadores humanos experientes no Go, usa não apenas o aprendizado de reforço, mas também o aprendizado profundo e o aprendizado supervisionado para aprender com milhares de partidas gravadas entre jogadores humanos. Essa combinação às vezes é conhecida como aprendizagem semi-supervisionada.

Da mesma forma, o sistema de ML usado pelo Microsoft Kinect para reconhecer os movimentos humanos foi construído com uma combinação de um sistema discriminatório – no qual a Microsoft alugou um sistema de captura de movimento de Hollywood, extraiu a posição do esqueleto e rotulou as partes do corpo para classificar qual das várias posturas conhecidas em que estava – e um sistema generativo, que usou um modelo das características de cada postura para sintetizar milhares de imagens para dar ao sistema um conjunto de dados suficientemente grande para aprender.

A análise preditiva muitas vezes combina diferentes técnicas de ML. Um modelo pode marcar qual a probabilidade de um grupo de clientes estar em condições de churn, com outro modelo que preveja qual canal você deve usar para entrar em contato com cada pessoa com uma oferta que possa mantê-los como clientes.

Navegando pelas desvantagens do Machine Learning Como os sistemas de aprendizado de máquinas não estão explicitamente programados para resolver problemas, é difícil saber como um sistema chegou aos seus resultados. Isso é conhecido como um problema de “caixa preta”, e pode ter consequências, especialmente em indústrias reguladas.

À medida que o Machine Learning se torna mais amplamente utilizado, você precisará explicar por que seus sistemas fazem o que fazem. Alguns mercados – habitação, decisões financeiras e cuidados de saúde – já possuem regulamentos que exigem que você dê explicações para as decisões. Você também pode querer transparência algorítmica para que você possa auditar o desempenho do sistema de Machine Learning. Os detalhes dos dados de treinamento e os algoritmos em uso não são suficientes. Existem muitas camadas de processamento não-linear que ocorrem dentro de uma Deep Learning, tornando muito difícil entender por que uma rede profunda está tomando uma decisão específica. Uma técnica comum é usar outro sistema de Machine Learning para descrever o comportamento do primeiro.

Você também precisa estar ciente dos perigos do viés algorítmico, como quando um sistema de Machine Learning reforça o viés em um conjunto de dados que associa homens com esportes e mulheres com tarefas domésticas porque todos os seus exemplos de atividades esportivas têm fotos de homens e todas as pessoas retratadas nas cozinhas são mulheres. Ou quando um sistema que correlaciona informações não médicas toma decisões que prejudicam as pessoas com uma determinada condição médica.

O Machine Learning será tão bom quanto os dados de treinamento que ele usa para construir seu modelo e os dados que ele processa, por isso é importante examinar os dados que você está usando. Sistema ML também não compreendem os dados ou os conceitos por trás deles como uma pessoa consegue fazer.

Há muitos problemas de reconhecimento e classificação que o aprendizado da máquina pode resolver de forma mais rápida e eficiente do que os humanos, mas, considerando o futuro previsível, Machine Learning deve ser considerado como um conjunto de ferramentas para apoiar as pessoas no trabalho em vez de substituí-las.

Créditos: http://cio.com.br/tecnologia/2018/07/21/guia-pratico-para-dominar-machine-learning/

Profissionais raros em TI: por que é tão difícil contratar?

Profissionais raros em TI: por que é tão difícil contratar?

Os profissionais mais raros são aqueles com perfil técnico, que também tenham capacidade analítica e estratégica.

Contratar para área de tecnologia é um desafio constante para os gestores de RH. Isso porque, infelizmente, o Brasil não forma profissionais na mesma medida que o mercado demanda. O fato é que, na última década, o volume de dados cresceu exponencialmente, e passou a ser gerenciado de maneira totalmente digital. A tecnologia, que antes era coadjuvante nas empresas, passou a ser uma área estratégica e de alto impacto para os negócios. Essa transformação fez crescer a demanda por profissionais e criou um descompasso entre a alta procura e a baixa oferta.

Um levantamento feito pela Manpower Group apontou que o Brasil é o segundo país que mais sofre com a escassez de profissionais qualificados, atrás apenas do Japão. Cerca de 71% das empresas apontam ter essa dificuldade. De acordo com o estudo, os profissionais de TI ocupam a oitava posição no ranking dos mais escassos, estando atrás de profissionais de nível técnico, artesãos, engenheiros, contadores.

Dentro da área de TI não é fácil listar quais são os profissionais mais raros, afinal essa demanda varia de acordo com a região, área, tipo de empresa e mudanças no mercado. No entanto, quando observarmos o mercado de contratações, conseguimos traçar um paralelo entre as demandas que estão mais recorrentes e as mais difíceis de serem preenchidas.

Pela minha experiência, consigo dizer que, hoje, os profissionais mais raros são aqueles com perfil técnico, que também tenham capacidade analítica e estratégica. É o caso de profissionais com conhecimento em análise de dados, que consigam não só trabalhar com as ferramentas, mas que também tenham expertise para interpretar as informações e transformá-las em estratégia para a empresa. Ou seja, mais do que as habilidades técnicas, as empresas buscam pessoas capazes de entender o impacto das ações de TI para o negócio.

Outros cargos, cada dia mais necessários, são aqueles responsáveis pela segurança da informação. O vazamento de dados pode comprometer a continuidade da empresa. Proteger-se de ataques e invasões é uma questão urgente e requer uma equipe com profundo conhecimento e atualizações constantes, uma vez que em pouco tempo as defesas ficam obsoletas. A Europa começou um movimento muito forte de proteção de dados, e isso já começou a refletir no Brasil através de subsidiárias Europeias. No entanto, apesar de ser um nicho de atuação que tende a crescer, essa é uma área que poucos profissionais escolhem.

Com o avanço da velocidade de se criar novos produtos e funcionalidades surgiu ainda a necessidade por profissionais de desenvolvimento de softwares capazes de criar ferramentas para automatização de testes. Imagine um cenário onde um novo serviço de tecnologia está sendo disponibilizado. Após a fase de desenvolvimento e antes do lançamento, a ferramenta precisa ser testada em todas as interfaces, botões, navegabilidade, etc. Fazer isso manualmente encarece, e muito, a operação. Surge aí a necessidade de validar o código de programação de maneira automática. Mas para isso, precisamos de pessoas com expertise em ferramentas e processos que vizam automatizar essas etapas.

Acredito que convém falar também do programador de software. Apesar de não ser um profissional raro, a procura está cada dia maior, aumentando assim a disputa entre os candidatos que existem. Mais uma vez, não é a quantidade de profissionais, mais sim o descompasso entre a formação deles e as urgências que aparecem no mercado.

Uma vez que são raros e cada dia mais necessários, esses candidatos começam a fazer exigências e buscam trabalhar para empresas as quais acreditam. O propósito é a bola da vez nos requisitos para quem está sendo contratado. Mas, apesar da missão empresarial estar entre as condições especificadas por eles, o grande anseio é por maior flexibilidade: seja no horário de trabalho, na possibilidade de home office ou por um dress code mais informal. Outro grande desejo é que a empresa o mantenha exposto às novas tecnologias. Eles querem trabalhar em ambientes inovadores, que forneçam ferramentas e favoreçam seu desenvolvimento profissional.

Enquanto recrutador, defendo que os profissionais negociem sim com as empresas que os estão contratando. É uma via de mão dupla, onde ambos os lados têm muito a ganhar. Mas, faço um alerta para que a negociação não se transforme em exigências, drenando o interesse e a confiança de quem está com a vaga aberta.

Algumas atitudes podem prejudicar o candidato. Falar de salário, benefícios e bônus logo no primeiro contato é uma delas. É o início do relacionamento, ambos os lados precisam se conhecer. Nessa fase, o candidato precisa explorar as oportunidades do projeto para o qual está sendo recrutado. Fazer perguntas sobre a cultura da empresa, sobre a liderança, os desafios, as responsabilidades e o futuro são o caminho mais educado e de quem tem verdadeiro interesse por uma oportunidade profissional. Esperar que a empresa mude sua política e cultura só para tê-lo na equipe pode passar a mensagem de que você é um profissional arrogante, e, portanto, por mais que seja qualificado para a vaga, não servirá para fazer parte do time.

Com tanta complexidade, as consultorias especializadas no recrutamento de TI são grandes parceiras na hora de encontrar os profissionais raros desse segmento. Isso porque elas trabalham em conjunto com a área de Recursos Humanos, para definir o plano estratégico e o diagnóstico de perfil ideal para cada vaga. Outro diferencial que torna as boutiques de recrutamento essenciais são o networking e o relacionamento contínuo com o mercado e com um nicho específico. Sem isso, encontrar os talentos nessa área torna-se, cada vez mais, uma tarefa quase impossível.

Fonte: http://cio.com.br/opiniao/2018/09/10/profissionais-raros-em-ti-por-que-e-tao-dificil-contratar/

Brasil é 9º maior mercado de software do mundo

Brasil é 9º maior mercado de software do mundo

Estudo da Abes e IDC detalha tendências e mensura força do setor brasileiro de software

Brasil segue na 9ª colocação no ranking mundial de software e serviços, com um mercado de US$ 18,6 bilhões, o equivalente a 1,6% do total mundial, que girou em torno de US$ 1,14 bilhão em 2017. Os números são de estudo da Abes (Associação Brasileira das Empresas de Software), realizado em parceria com a IDC.

Desenvolvido anualmente pela associação, o documento utiliza dados da IDC referentes ao último ano para fornecer um retrato do mercado de software a apresentar as principais tendências do setor.

O levantamento aponta que o Brasil está muito próximo do tamanho dos mercados de nações como Holanda e Itália, que ocupam as 10ª e 11ª posições, respectivamente, e pouco atrás da Austrália, 8ª colocada na lista. No geral, todos os indicadores brasileiros tiveram sutis aumentos de 2016 para 2017, como o total de empresas atuando no setor, que passou de 15,7 mil para 17 mil.

Jorge Sukarie, presidente do Conselho da Abes, destaca que o ano de 2017 evidenciou uma retomada no crescimento do setor de TI no Brasil, após um 2016 difícil. “Como já divulgamos na primeira prévia do estudo, os investimentos em Tecnologia da Informação no país cresceram 4,5% em relação ao ano anterior. Foi o ano do início da recuperação que esperamos continuar em 2018, com a retomada dos investimentos em tecnologia, que não podem mais ser postergados”, comenta.

Emtre as características das empresas brasileiras desenvolvedoras de software, o estudo mostra que: 49,3% delas são consideradas micros (ou seja, com 10 funcionários ou menos), 46,2% pequenas (de 10 a 99 empregados), 4% médias (entre 100 e 500 trabalhadores) e apenas 0,5% grandes (acima de 500 funcionários).

O levantamento aponta que o Brasil está muito próximo do tamanho dos mercados de nações como Holanda e Itália, que ocupam as 10ª e 11ª posições, respectivamente, e pouco atrás da Austrália, 8ª colocada na lista. No geral, todos os indicadores brasileiros tiveram sutis aumentos de 2016 para 2017, como o total de empresas atuando no setor, que passou de 15,7 mil para 17 mil.

Jorge Sukarie, presidente do Conselho da Abes, destaca que o ano de 2017 evidenciou uma retomada no crescimento do setor de TI no Brasil, após um 2016 difícil. “Como já divulgamos na primeira prévia do estudo, os investimentos em Tecnologia da Informação no país cresceram 4,5% em relação ao ano anterior. Foi o ano do início da recuperação que esperamos continuar em 2018, com a retomada dos investimentos em tecnologia, que não podem mais ser postergados”, comenta.

Emtre as características das empresas brasileiras desenvolvedoras de software, o estudo mostra que: 49,3% delas são consideradas micros (ou seja, com 10 funcionários ou menos), 46,2% pequenas (de 10 a 99 empregados), 4% médias (entre 100 e 500 trabalhadores) e apenas 0,5% grandes (acima de 500 funcionários).

“Esses números ressaltam a importância da promoção de políticas de incentivo e fomento às pequenas e médias empresas, que são imprescindíveis para que o setor de software brasileiro avance e transforme o país digitalmente”, completa Sukarie.

Atualmente, o setor de software representa 1,9% do PIB nacional. Fonte: https://computerworld.com.br/2018/08/18/brasil-e-9o-maior-mercado-de-software-do-mundo/

Multicloud: qual é a chave para o gerenciamento proativo de custos?

Multicloud: qual é a chave para o gerenciamento proativo de custos?

A marcação de recursos pode ser útil, mas dificilmente é uma maneira eficaz de controlar os custos da nuvem. Veja como melhorar

Como podemos manter o orçamento multicloud sob controle? Primeiro precisamos entender com o que estamos trabalhando. Quando os custos são acumulados por várias equipes, usando várias contas, envolvendo vários produtos em várias regiões geográficas, em várias plataformas de nuvem, obter uma ideia clara pode ser uma tarefa quase impossível. Por esse motivo, as equipes de infraestrutura e operações geralmente recorrem a soluções de gerenciamento de nuvem para obter melhor visibilidade dos custos.

Medidas proativas de controle de custos serão sempre mais eficazes no gerenciamento de orçamentos de nuvem. Infelizmente, existem poucas soluções que ajudarão as equipes a fazer isso agora. Eu diria que a melhor prática é definir políticas orçamentárias a nível do projeto e da equipe e aplicar essas políticas por meio de ferramentas automatizadas. Dessa forma, os aplicativos podem ser agrupados em projetos associados a orçamentos de equipe ou de unidades de negócio.

A TI e o Financeiro podem definir controles de custos para unidades de negócios. Unidade de negócio ou equipes individuais podem definir orçamentos para projetos. Essas políticas podem servir de proteção, garantindo que os aplicativos e projetos não excedam o orçamento esperado, ao mesmo tempo em que deem às equipes liberdade para serem produtivas por meio de métodos como o autoatendimento automático.

Com essas práticas implementadas, mesmo no lado reativo, as equipes de TI e finanças terão maior percepção de onde vêm os custos. Eles podem atribuir e reatribuir orçamentos com flexibilidade e podem se adaptar às mudanças sem perder o contexto. Além disso, você precisará usar um poderoso mecanismo de análise que possa analisar os aplicativos e as tendências de uso e fazer sugestões para as equipes melhorarem os custos antes da cobrançaPor exemplo, uma análise de custo pode recomendar o uso de instâncias reservadas, quando elas proporcionam economias significativas de custos e sugerem o dimensionamento correto da carga de trabalho, e sempre que as equipes puderem autorizar esse uso automaticamente ou aprovar manualmente.

Ao habilitar um sistema de controle de custos proativo e um mecanismo de análise de custos mais poderoso e contextual, você pode tornar o descontrole dos custos multicloud  algo do passado.

Rapidez, agilidade, flexibilidade  e eficiência de custos – esse é o santo graal e o futuro multicloud.

 

Leia mais: http://cio.com.br/tecnologia/2018/07/16/multicloud-qual-e-a-chave-para-o-gerenciamento-proativo-de-custos/  

Esqueça tudo o que você achava que sabia sobre gerenciamento de projetos

Esqueça tudo o que você achava que sabia sobre gerenciamento de projetos

Hoje, velocidade, capacidade e adaptabilidade são tão ou mais importantes que custo e qualidade

Graças à verdadeira “guerra de manobra” que tomou de assalto as empresas modernas, possibilitando aos executivos se beneficiar dos desafios que têm de enfrentar, em vez de se deixar abater por eles, o gerenciamento de projetos tornou-se a disciplina mais importante nas corporações. E com uma nova abordagem, na qual custo e qualidade deixaram de ser prioridades. Flexibilidade e velocidade ganharam peso maior. Para melhorar qualquer função comercial, incluindo gerenciamento de projeto, você tem que saber o que “melhorar” significa. Um bom caminho para isso é classificar seis parâmetros em ordem de importância: custo fixo, custo incremental, tempo de ciclo, rendimento, qualidade (ausência de defeitos), e excelência (neste contexto, a flexibilidade e adaptabilidade). Tradicionalmente, os chamados projetos de TI enfatizam custo incremental, custo fixo, e qualidade. Em outras palavras, manter baixos o custo por unidade de trabalho, a sobrecarga de gerenciamento de projetos, e a quantidade de bugs. Tempo de ciclo, rendimento, e excelência eram deixados à própria sorte – pelo menos até agora. Ciclo OODA: A guerra de manobra dos negócios Para os não iniciados, o ciclo OODA significa “observar, orientar, decidir, agir”. Em loop, porque depois de agir, é hora de observar novamente, para ver se você obteve os resultados esperados e/ou precisa fazer correções. Na maioria das competições, o competidor com o loop mais rápido OODA ganha, porque é mais veloz e assertivo na tomada de decisões. Assim, para acelerar o seu ciclo OODA, você tem que terminar os projetos mais rapidamente. O que leva o tempo de ciclo para o topo da lista de prioridades do gerenciamento de projetos. Seguinte: em nosso ciclo OODA, “agir” nem sempre é simples o suficiente para ser um requisito atendido por um único projeto. A implicação: além de terminar os projetos individuais de forma rápida, a TI tem que aumentar sua capacidade total para os projetos. Em outras palavras, precisa ter maior rendimento. Dado que o grande objetivo dos projetos de empresa é aumentar a flexibilidade do negócio e adaptabilidade, junta-se a excelência do tempo de ciclo e taxa de transferência como terceiro parâmetro a ser otimizado no gerenciamento de projetos. OODA Portanto, é possível concluir que quando se trata de gerenciar projetos que objetivam manter o negócio competitivo, os critérios para definição de “bom” passaram a ser velocidade, capacidade e flexibilidade. Pergunta: seus gerentes de projeto compreendem quão radicalmente suas prioridades mudaram? Eu diria que a maioria ainda não percebeu como o gerenciamento de projeto tem que mudar para se adaptar às suas novas prioridades.   Fonte: http://cio.com.br/gestao/2018/07/28/esqueca-tudo-o-que-voce-achava-que-sabia-sobre-gerenciamento-de-projetos/  

10 desafios enfrentados por líderes digitais

Estudo aponta que quase metade dos executivos que acreditam se encaixar nessa categoria estão focados em impulsionar o crescimento da receita

Líderes digitais são definidos como organizações que se consideram “muito eficazes” ou “extremamente eficazez” no uso de tecnologias digitais para avançar suas estratégias de negócios. Com base nesse perfil, a 20ª edição do estudo Harvey Nash/KPMG CIO Survey identificou que quase 45% dos líderes digitais estão focados em “impulsionar o crescimento da receita”. Eles também apostam mais no desenvolvimento de produtos inovadores. Fazer um sucesso digital é complexo: quase oito em dez CIOs consideram sua estratégia digital como moderadamente eficaz ou pior. E as estratégias digitais são ainda em sua infância, com a maioria dos investimentos focados em o “front end”, em vez de atividades operacionais mais profundas. Ter um CDO, seja em um papel dedicado ou atuando, ajuda as organizações a terem duas vezes mais chances de ter uma estratégia digital em toda a empresa (se tiverem uma), e uma cultura de inovação  – quatro em dez dos CIOs entrevistados acreditam que sua estratégia digital falharia sem isso. O estudo  ouviu quase 4 mil líderes de TI em 84 países para entender, entre outros pontos, como os CIOs estão se adaptando às mudanças impostas pelo digital. Confira na lista abaixo os dez desafios elencados por aqueles que se consideram líderes digitais. Saiba mais: Como se transformar em um líder digital, segundo o Gartner  1. Desenvolver inovações em produtos e serviços 2. Entregar de forma consistente e estável TI, em linha com a performance dos negócios 3. Impulsionar a experiência do usuário 4. Aprimorar a eficiência operacional 5. Aprimorar processos de negócios 6. Reduzir custos 7. Aprimorar a cibersegurança 8. Entregar business intelligence/analytics 9. Aprimorar a eficiência por meio da automação 10. Impulsionar o crescimento da receita Fonte: http://cio.com.br/gestao/2018/07/23/10-desafios-enfrentados-por-lideres-digitais/

Colaboração: o caminho para um trabalho digital mais eficiente

Colaboração: Um Trabalho Digital Mais eficiente

Ferramentas de colaboração são fundamentais para que as organizações aumentem a eficiência da troca e do tratamento de dados

As ferramentas de colaboração promoveram uma rápida evolução no tratamento e armazenamento da grande quantidade de dados – ou o big data – inserida diariamente no ambiente digital. São muitas as soluções que permitem a interação entre usuários nos espaços de trabalho persistentes. Consequentemente, as organizações vivem uma transformação cultural e são pressionadas por respostas mais eficientes e maior agilidade na tomada de decisões.
A consolidação da colaboração entre equipes no ambiente digital – que transitam, inserem e organizam dados – ocorre no ambiente de nuvem. Isso significa que os usuários podem interagir de diferentes maneiras: seja com a troca de mensagens, documentos, a criação de whiteboards, anotações ou vídeos. E todas essas informações ficam centralizadas em um só espaço.
Uma das preocupações em relação ao tratamento virtual de tanta informação é justamente a segurança. Espera-se que ninguém de fora consiga invadir o ambiente para interceptar e roubar informação, e, por outro lado, que os usuários internos sejam capazes de manipular dados confidenciais de maneira responsável e segura.
Por isso, a criptografia inteligente de ponta a ponta, controles de acesso específicos, de acordo com o perfil do usuário, e políticas de compliance, como por exemplo a Prevenção de Perda de Dados (Data Loss Prevention, ou DLP) são fundamentais. Isso também se aplica ao tráfego, ao armazenamento, à gestão e, por fim, à entrega dos dados até o dispositivo ou cliente final. Ou seja, a ideia é garantir que quando um usuário se comunique com o outro e compartilhe, por exemplo, um arquivo, esse processo esteja criptografado de ponta a ponta.
Todas essas mudanças promovem uma transformação cultural nas organizações. As respostas se tornam rápidas e as decisões das equipes de trabalho – muitas vezes multidisciplinares -, mais ágeis. Além disso, processos desnecessários são evitados, como a troca de centenas de e-mails sem a garantia de que serão lidos por todos os destinatários, evitando a perda de continuidade nas comunicações.
A incorporação dessas ferramentas melhora a comunicação interna das empresas, mas para que haja um aumento ainda maior de eficiência, é importante integrá-las aos processos de negócios. Por exemplo, que a “aplicação x” se comunique com a “aplicação z”, e que esta esteja programada para gerar uma ação a cada nova entrada na “aplicação x”. Nos universos da manufatura ou do varejo , por exemplo, essa integração pode ser muito útil para aumentar a produtividade do negócio.
Essas ferramentas também ganharam espaço em ambientes de atenção ao cliente de entidades de saúde e até órgãos governamentais, para citar alguns exemplos. Fora do Brasil, alguns hospitais já fazem consultas e acompanhamento dos pacientes remotamente, graças a sistemas de videoconferência. Além disso, ministérios de alguns países já permitem que cidadãos registrem queixas sem a necessidade da presença de um funcionário, mas com soluções que integram uma câmara de vídeo, um sistema que capta as informações e uma impressora que emite o protocolo de atendimento.  
Os chatbots, por sua vez, substituíram funcionários em atendimentos telefônicos. Graças à integração da tecnologia a sistemas de inteligência artificial, há uma redução de burocracias custosas e aumento da satisfação do cliente – tanto interno quanto externo
Há um ambiente tecnológico escondido, porém, essencial para suportar o processamento de tantos dados gerados no universo de colaboração, big data, Internet das Coisas (Internet of Things, ou IoT), entre outros. A rede de baixa potência, ou LPWAN, que é muito mais viável economicamente, por exemplo. Além disso, a otimização do armazenamento na nuvem com a utilização do edge computing, rede de dispositivos de borda, que melhora o desempenho dos aplicativos, reduz a latência e os custos pela utilização de uma internet com menor banda larga.
É preciso prestar atenção a tudo isso para pegar a direção correta na estrada rumo à automatização dos processos e à cada vez mais eficiente estratégia de dados.
Fonte: http://computerworld.com.br/2018/7/19/colaboracao-o-caminho-para-um-trabalho-digital-mais-eficiente  

Como obter real valor do Big Data na nuvem?

Como obter real valor do Big Data na nuvem?

A computação em nuvem tornou o Big Data acessível, mas muitas empresas ainda não sabem o que fazer com os dados disponíveis. Recomendo um bom planejamento de dados, por diversos motivos

De acordo com mais recente relatório da IDC, “as receitas mundiais para Big Data e Business Analytics crescerão de quase US$ 122 bilhões em 2015 para mais de US$ 187 bilhões em 2019, um aumento de mais de 50% no período de cinco anos”. Qualquer pessoa, em qualquer empresa, sabe que Big Data é um grande negócio. Se você conseguir gerenciar e analisar grandes quantidades de dados – estou falando de petabytes – terá acesso a todos os tipos de informações que ajudarão a administrar melhor os negócios. Certo? Infelizmente, para a maioria das empresas, não. Aqui estão alguns fatos concretos: a computação em nuvem tornou o Big Data acessível. Antes, você teria que construir um novo datacenter para abrigar a consolidação de dados. Agora, você pode consolidar dados na nuvem a preços bem em conta. Mas uma coisa é ter dados estruturados e não estruturados em um local central. Outra coisa é fazer bom uso desses dados por razões táticas e estratégicas. Com muita frequência, as empresas reúnem os dados, mas não sabem o que fazer com eles. Eles não têm uma compreensão sistêmica das oportunidades de negócios e dos valores que poderiam ser obtidos com o aproveitamento desses dados. O que muitas vezes falta é um planejamento de dados. Recomendo que todos os empreendimentos tenham um planejamento de dados completo antes que os dados sejam consolidados na nuvem. Isso significa ter um conjunto claro e detalhado de casos de uso para os dados (incluindo propósito e valor), bem como uma lista de ferramentas e tecnologias (como Machine Learning e Analytics) que serão usadas para extrair valor comercial dos dados. O planejamento de dados precisa ser feito antes da consolidação por vários motivos: – Saber quais dados serão aproveitados para fins analíticos. Acho que alguns dados consolidados não são necessários. Então, você acaba pagando pelo armazenamento do banco de dados sem nenhuma finalidade comercial sólida, além de prejudicar o desempenho da análise, pois os dados desnecessários também precisam ser processados. – Entender o significado dos dados, incluindo seus metadados. Isso garante que você esteja analisando os dados corretos para os casos de uso especificados.  – Considerar um plano de desempenho. Se você classificar petabytes de dados, gastará muito tempo e dinheiro na nuvem. Como otimizar?   – Ter uma lista de ferramentas de análise de dados. Embora muitas empresas comprem as ferramentas mais populares, você pode descobrir que sua jornada de Big Data leva você a uma tecnologia menos popular que se encaixa melhor. Certifique-se de explorar o mercado antes de decidir sobre o seu conjunto de ferramentas. Um pouco de planejamento vai levá-lo longe. Seu negócio vale esse investimento. Fonte: http://cio.com.br/tecnologia/2018/07/14/como-obter-real-valor-do-big-data-na-nuvem/

10 ferramentas de BI para visualização de dados

10 ferramentas de BI para visualização de dados

A análise visual é o núcleo da inteligência de negócios. Aqui estão as ferramentas que você precisa ver através dos dados

Há um norte dourado no mar de dados em que as empresas estão nadando. Ser capaz de pescar a inteligência de negócios de que você precisa – quando precisa – é a chave para dirigir seu navio. Nesta apresentação de slides, discutiremos 10 ferramentas de BI que apresentam visualização e análise de dados. Algumas dessas ferramentas começaram como ferramentas de relatórios corporativos e se expandiram para BI self service. Outros começaram como ferramentas de visualização de dados de autoatendimento e podem ou não ter adicionado relatórios avançados. Algumas ferramentas podem ler grandes conjuntos de dados no local, a partir de um data lake ou do Hadoop; outros devem importar todos os dados. As implementações podem ser apenas em nuvem ou permitir a instalação no local. 1 – Birst Birst se apresenta como um Enterprise BI com uma rápida descoberta de dados. A arquitetura Birst conecta toda a organização por meio de uma rede de instâncias de BI virtualizadas interligadas, além de uma estrutura analítica comum compartilhada. O Birst tem uma arquitetura multi-tenant. Ele pode ser implantado na nuvem pública, na AWS ou on-premise como um appliance virtual. De acordo com a Gartner, três quartos dos clientes de referência da Birst disseram que era o único padrão corporativo para análise e BI, e  98% dos clientes de referência da Birst esperam continuar usando o produto. Ambas são expressões impressionantes de validação dos usuários. Por outro lado, o Gartner relata que uma grande parte dos clientes de referência da Birst está usando o produto principalmente para painéis e relatórios com parâmetros, com apenas pequenas partes usando o produto para tarefas analíticas mais sofisticadas. O produto suporta modelos de dados complexos. 2 – Domo O Domo combina uma grande variedade de conectores de dados, um sistema ETL, um armazenamento de dados unificado, uma seleção de visualizações, mídias sociais integradas e relatórios em uma ferramenta de BI online. Destina-se diretamente a executivos seniores e usuários de linha de negócios que precisam de um painel intuitivo voltado para os negócios. O Domo afirma ser mais do que uma ferramenta de BI porque sua ferramenta de mídia social pode levar a “insights úteis”. Mas, na prática, todas as ferramentas de BI levam a ações que beneficiam o negócio ou acabam sendo jogadas no lixo. O Domo é, no entanto, um sistema de BI muito bom e capaz. Destaca-se dos outros oferecendo suporte para muitas fontes de dados  muitos tipos de gráficos. O recurso integrado de mídia social é  bom, apesar do hype. No entanto, o Domo é mais difícil de aprender e usar do que o Tableau, o Qlik Sense e o Power BI, e por US$ 2 mil por usuário por ano é muitas vezes mais caro que outras ferramentas. 3 – Microsoft Power BI O Microsoft Power BI é um conjunto de ferramentas de análise de negócios executadas principalmente no Azure e que se conectam a centenas de fontes de dados, simplificam a preparação de dados e conduzem análises ad-hoc. É também uma das soluções de BI de mais baixo custo do mercado, com um preço de US$ 9,99 por usuário/mês, para o Power BI Pro, uma ferramenta gratuita de análise do Windows e aplicativos gratuitos para visualizações móveis. O Power BI Premium, um servidor virtual com preço de US$ 4.995 por mês, dependendo da capacidade, não exige licenças de usuário nomeadas e inclui o Power BI Report Server, que pode ser executado no local. O Power BI tem uma alta pontuação na facilidade de uso, mas de acordo com a Gartner, as pontuações de seus clientes de referência o colocam no quartil inferior para a amplitude de uso. A maioria dos clientes de referência da Microsoft (59%) usa principalmente relatórios e painéis parametrizados do Power BI, em vez de usá-lo para tarefas mais complexas. A proporção média de usuários comerciais que criam seu próprio conteúdo com o Microsoft Power BI é de 20%, o que é muito baixo. 4 – MicroStrategy A MicroStrategy combina a descoberta e análise visual de dados de autoatendimento com análises e relatórios corporativos adequados para sistemas de registro em larga escala. Ele oferece uma única plataforma integrada com muitas opções de licença diferentes para funções de consumidor de dados e usuário avançado. Os clientes estão disponíveis para web, desktop e dispositivos móveis. Os servidores estão disponíveis para relatórios, inteligência, análises na memória, transações, distribuição, colaboração, serviços geoespaciais, emblemas e telemetria. Os drivers estão disponíveis para bancos de dados relacionais, OLAP e Hadoop. A MicroStrategy fez uma longa jornada desde seu foco histórico em relatórios corporativos até agora também ser capaz de satisfazer usuários de autoatendimento e permitir implementações departamentais fáceis na AWS. Fora de sua base de clientes, no entanto, permanece quase desconhecido. 5 – Qlik Sense O Qlik Sense oferece descoberta de dados controlada, análise ágil e BI. E usa um mecanismo associativo escalável na memória que também pode ser usado como um data mart. Ele também pode fornecer relatórios corporativos usando seu módulo opcional do servidor Qlik NPrinting. Ao trabalhar com o Qlik Sense, você pode salvar um marcador na seleção atual na planilha atual. Então você pode combinar marcadores em histórias e adicionar texto e outras anotações para tornar a história auto-explicativa. Se você estiver usando uma história para uma apresentação ao vivo, pode pesquisar a origem de qualquer visualização para responder – e ilustrar – as perguntas que surgem. Depois de ter respondido à pergunta, você pode facilmente retornar à história. Diferentes cores para os valores exibidos (selecionado, selecionável, não selecionável) ajudam a identificar dados relacionados e não relacionados. Também gosto da maneira como o Qlik define expressões, mas não tanto quanto eu gosto do Tableau. O Qlik Sense oferece um bom controle sobre a aparência das visualizações – melhor que o Microsoft Power BI, mas não tão bom quanto o Tableau. A empresa afirma que seu mecanismo associativo pode descobrir insights perdidos pelas ferramentas de BI baseadas em consulta. O Qlik DataMarket oferece acesso a dados externos com curadoria que você pode usar para aumentar e fazer referência cruzada a seus dados internos. 6 – Salesforce Einstein Analytics O Salesforce Einstein Analytics oferece uma visão clara dos dados do Salesforce, ajudando a destacar métricas e tendências de desempenho críticas. A Einstein Analytics Platform permite que você crie visualizações, painéis e análises interativas personalizadas com a preparação de dados de autoatendimento integrado usando o Salesforce e (para obter mais dinheiro) dados que não são do Salesforce. Além disso, o Salesforce Einstein oferece aplicativos especializados para vendas, serviços, marketing B2B e descoberta assistida por IA. 7 – SAS Visual Analytics A SAS, uma empresa mais conhecida por sua ciência de dados e produtos de análise estatística, oferece o SAS Visual Analytics, que fornece relatórios interativos, descoberta visual, análise de autoatendimento, escalabilidade e governança, usando um ambiente de memória. Inclui análise preditiva para avaliar possíveis resultados e tomar decisões baseadas em dados, o que, segundo a SAS, é bastante fácil para um analista de negócios. O SAS Visual Analytics pode ser implantado on-premise, em datacenters SAS ou na nuvem pública. É forte na exploração visual interativa e nos painéis analíticos. Suporta tipos avançados de gráficos, bem como análises avançadas, e permite modelos R, Python, Java e Lua, bem como modelos SAS.

visualizacao

8 – Sisense O Sisense é uma plataforma de análise e BI integrada, de ponta a ponta, construída em um banco de dados in-memory, que oferece exploração de dados visuais, painéis e recursos avançados de análise avançada. Pode ser implantado on-premise; em cloud pública, privada ou híbrida; e como um serviço gerenciado. Um diferenciador reivindicado pela Sisense é  fazer uso pesado de memória na CPU (cache) para mover dados de 50 a 100 vezes mais rápido que na RAM. Embora a Sisense enfatize sua escalabilidade, seu tamanho médio de implantação é de 300 usuários, de acordo com o Gartner. 9 – Tableau O Tableau é uma plataforma de análise como um serviço com forte descoberta de dados visuais. As plataformas de base são o Tableau Server (Windows ou Linux) e o Tableau Online (hospedado). Os usuários podem ser Criadores, Exploradores ou Visualizadores. Os criadores têm licenças para as versões Server ou Online, bem como para o Tableau Prep (preparação de dados) e o Tableau Desktop (Windows e macOS). A descoberta visual no Tableau é poderosa e o Tableau definiu um padrão para sua implementação fácil de usar e controle preciso da exibição do gráfico. Você constrói uma visualização do Tableau clicando ou arrastando as dimensões (normalmente categorias ou características discretas) e medidas (valores numéricos) de interesse e escolhendo uma marca (o tipo de exibição, como barras, linhas e pontos), ou usando a seleção automática de marcas, ou usando o método “mostrar-me” para selecionar a visualização. Para obter mais controle, você pode arrastar dimensões e medidas para características de marcas específicas ou “prateleiras”. Quando você entende o que está acontecendo em sua análise, é possível compartilhar painéis e histórias com outras pessoas. Isso é feito facilmente ao publicar no Tableau Server ou no Tableau Online, esteja você trabalhando no Tableau Desktop e precise fazer o upload, ou já fazendo sua análise online. O Tableau também oferece dois aplicativos de área de trabalho gratuitos para Windows e macOS: Tableau Public e Tableau Reader. O Tableau Public pode abrir e criar análises que residem no seu perfil do Tableau Public. O Tableau Reader pode abrir e interagir com arquivos de visualização de dados criados no Tableau Desktop. 10 – ThoughtSpot O Thoughtspot apresenta uma abordagem baseada em pesquisa para análise visual e a capacidade de integrar, preparar e pesquisar bilhões de linhas e terabytes de dados. O Thoughtspot afirma que pode responder em segundos a pesquisas de bilhões de linhas. O Thoughtspot também é compatível com o SpotIQ, uma análise “orientada por IA”, que os usuários podem executar nos resultados da consulta para descobrir anomalias, linhas de tendência, clusters e outros recursos de dados usando algoritmos estatísticos e de Machine Learning. O SpotIQ gera narrativas de linguagem natural para qualquer insight que ele descubra. Se isso soa como o Google-ization do BI, isso não é um acidente: vários dos fundadores são ex-alunos do Google. Fonte: http://cio.com.br/tecnologia/2018/07/05/10-ferramentas-de-bi-para-visualizacao-de-dados/