Tire suas dúvidas aqui!

Perguntas Frequentes

Respondemos as principais perguntas que você pode ter antes de se tornar um cliente da Crawly.

A Crawly é uma plataforma?
Não somos uma plataforma. Desenvolvemos bots personalizados (crawlers e scrapers)  com tecnologia própria, para coletar informação em qualquer fonte disponível. 
Cada projeto apresenta uma demanda diferente e nossas soluções são criadas para coletar e estruturar dados a partir de sites, arquivos e diversas outras fontes de dados, com intuito de otimizar estratégias e operações, através da automatização da rotina de pesquisa, coleta, organização e limpeza de dados para empresas.
Quanto custa contratar a Crawly?
Vai depender muito do seu projeto. Avaliamos o escopo junto com o nosso time de engenharia e precificamos cada projeto individualmente de acordo com suas particularidades.
Como eu terei acesso aos dados que vocês coletam?
Nossos projetos são personalizados de ponta a ponta, então você escolhe a melhor forma para receber seus dados, como por exemplo: excel, csv, json, via API, arquivo para Power BI e outras ferramentas de Data Analytics.
Quais tipos de dados a Crawly coleta?
Coletamos dados sem limitações quanto aos tipos de fonte, desde que a coleta respeite a legislação.
A Crawly indica as fontes de dados para o meu projeto?
Nosso processo personalizado  As soluções desenvolvidas pela Crawly atuam como um processo de logística de informações, que tem como ponto de partida fontes pré-determinadas, nas quais atuam bots personalizados responsáveis por extrair, estruturar e transportar os dados no formato de arquivo que atende à demanda final de cada projeto. 
Onde a Crawly armazena os dados coletados?
A Crawly não armazena nenhum tipo de dado sensível. Também não destinamos nenhum dado coletado para outra finalidade que não a principal de cada projeto. Nossas soluções são desenvolvidas em conformidade com a LGPD e toda legislação.
Existem limitações quanto às fontes de dados para consulta?

Não existe limitação! Mas optamos por não trabalhar com redes sociais nem sites de apostas.
Como a Crawly desenvolve os robôs? Usa alguma plataforma?
Nossa equipe de desenvolvimento utiliza tecnologia de ponta, própria, para criar e implementar cada um dos bots inteligentes. Isso permite um grau de customização e extrema assertividade dos seus resultados.
Como descobrir quais dados podem ser automatizados na minha empresa?
Todo tipo de atividade realizada por humanos e que não envolva um nível complexo de análise pode ser replicado por um robô virtual. Dessa maneira, os processos manuais de coleta e organização de qualquer tipo de dado, seja para alimentar uma planilha em Excel ou um modelo de Inteligência Artificial, podem ser automatizados.

Em uma explicação bem simplificada, para garantir a qualidade e agilidade na mineração de dados em grande volume, os crawlers atuam na escavação do material bruto (dados) na fonte de informação (origem) que por sua vez são estruturados pelos scrapers no formato de entrega ideal em cada projeto.
Empresas de qualquer tamanho podem usar crawlers?
Sim! Atuamos com empresas de todos os portes: de startups até grandes corporações. Saiba quais empresas confiam na Crawly, visitando a nossa página de cases.
Quais áreas se beneficiam do uso de crawlers?
O uso de crawlers para automatizar a rotina de dados pode beneficiar todas as áreas de uma empresa. Nosso foco é oferecer informações para agregar valor à inteligência de negócios, aumentar a produtividade operacional e também fazer com que você e a sua empresa possam tomar decisões mais assertivas com agilidade e segurança.
Nossa solução está presente em empresas líderes de áreas de finanças, logística, mineração, varejo, comércio eletrônico, energia e aviação comercial.
Qual linguagem a Crawly utiliza para desenvolver os robôs?
Sempre a melhor possível. Desenvolvemos tecnologia própria e, por isso, aplicamos a melhor linguagem de programação de acordo com a fonte de dados e formato de entrega específicos de cada projeto.
A Crawly faz consultas de dados apenas na internet?
Não! Podemos trabalhar também com arquivos em pdf, planilhas, bancos de dados e sistemas.