Suzano
O profissional se juntará à área de Digital Tech da Suzano, criada para desenvolver soluções inovadoras de forma ágil com a missão de transformação do negócio em todos os níveis: florestal, industrial, supply-chain, comercial e funções de suporte. Os membros da equipe devem ser engenheiros ou engenheiros de dados e/ou possuir experiência em aplicações de técnicas de Analytics avançado (incluindo, porém, não exclusivo a técnicas de Machine Learning) e desenvolvimento de algoritmos e códigos voltados para aplicações de negócio. Os membros da equipe devem ser capazes de aplicar os conceitos de ciência de dados para desenvolver em conjunto com time de projetos soluções tecnológicas em projetos que possuam o objetivo de capturar valor para a Suzano. Além disto, espera-se que o profissional seja responsável por propor soluções inovadoras de desenvolver as soluções ou abordar os problemas, fazendo interface com áreas de negócio na captura de informações relevantes na solução de problemas. O profissional também utilizará-se de técnicas de preparação, transformação e entrega de dados para treinamento, versionamento, rastreamento, implantação e monitoramento de modelos de ML. Os membros da equipe devem ainda utilizar-se de técnicas de segurança, de forma contínua, em todo o processo de desenvolvimento, com observância em padrões de segurança e conformidade com regulamentações.
Requisitos:
- Superior completo
- Formação em STEM (Science, Tecnologia, Engineering and Math)
- Conhecimento de sistemas computacionais;
- Conhecimento de redes de computadores: Firewall;
- Experiência com modelagem de dados;
- Experiencia com banco de dados relacionais;
- Conhecimento de ferramentas de controle de versão (Ex. Git);
- Experiência com a plataforma Docker;
- Experiência em soluções para lidar com grande volume de dados para otimizar os modelos: Spark/Pyspark; Experiência em ferramenta de visualização de dados (Ex. PowerBI);
- Entendimento de requisitos para segurança da informação LGPD.
- Familiaridade com metodologias ágeis;
- Experiência em Linux nível sysadmin;
- Experiência GCP (Bigquery, Cloud Storage, Cloud Function, Cloud Run, Cloud Dataproc, PubSub, Dataflow, Kubernets);
- Experiência em DevOps e ferramentas de CI/CD;
- Conhecimento em Terraform;
- Entendimento de requisitos para segurança da informação: SSL, JWT, LGPD;
- Experiência com desenvolvimento de APIs REST;
- Experiência e manutenção de ETLs aplicado a Big Data;
- Conhecimento básico em Machine Learning e Deep Learning.
- Inglês fluente;
- Perfil de senioridade com capacidade de liderar pequenas iniciativas;
- Domínio em GCP/Azure;
- Python orientado a objeto;
- Experiência comprovada em Design Patterns;
- Domínio em infraestrutura cloud;
- Capacidade de atuar em várias frentes ao mesmo tempo;
- Capacidade de se atualizar com rapidez.
- Capacidade de liderar vários projetos simultâneos;
- Capacidade de ser referência técnica da equipe.
- Será feito um teste na forma de case ou prova para que o candidato demonstre habilidades na área.
Atividades:
Responsabilidades gerais
Gerenciar e otimizar soluções para o armazenamento e a distribuição de dados; Ter preocupação com a ética no tratamento de dados, seguindo as orientações da LGPD (Lei Geral de Proteção de Dados) e direcionamentos da áreas de segurança e governança; Construir forte relacionamento com diversas áreas internas da empresa de modo a garantir entendimento compreensivo dos requisitos do negócio; Trabalhar em modelo ágil e de forma colaborativa dentro de squads; Seguir melhores práticas de Gestão de Dados para garantindo pontualidade e rigor nas soluções desenvolvidas; Seguir padrões internos, já definidos, para implantação (deploy) de modelos, inclusive, conectando-os a pipeline de dados; Utilizar de documentação sobre o ciclo de vida de modelos de ML para monitoramento contínuo e acompanhamento de suas métricas; Uso de ambientes de integração e entrega contínuas (CI/CD) automatizadas para implantação de modelos; Aplicação de técnicas de segurança, de forma contínua, no processo de desenvolvimento de sistemas; Observância em padrões de segurança e conformidade com regulamentações para entrega de soluções seguras.
Propor e desenvolver padrões de serviços para implantação de modelos e definição de pipelines de dados; Propor e desenvolver ferramentas de monitoramento contínuo para acompanhamento e análise das métricas geradas pelos modelos; Implementar técnicas de gerenciamento de pipelines de treinamento de modelos com versionamento e rastreamento de experimento; Propor e desenvolver técnicas de segurança a serem incorporadas, de forma contínua, no processo de desenvolvimento; Ter conhecimento sobre novas regulamentações que tratam sobre o tema de segurança no desenvolvimento de ferramentas; Propor e desenvolver soluções para gerenciamento de incidentes, análises de ameaças e atualizações regulares para lidar com vulnerabilides emergentes.
Projetar, desenvolver, gerenciar e otimizar soluções para o armazenamento e a distribuição de dados; Definir metodologias para governança de modelos e documentação sobre o ciclo de vida de um modelo de ML; Ter entendimento de melhores
práticas e novas metodologias para implantação (deploy) de modelos, inclusive com mecanismos igualmente modernos para definição de pipeline de dados; Propor atualizações nos ambientes de integração e entregas contínuas (CI/CD) para automatização de tarefas; Definição de técnicas de segurança, de forma contínua, a serem adotadas no processo de desenvolvimento de sistemas; Ter conhecimento sobre regulamentações e técnicas atualmente adotadas e novas, ainda a serem debatidas e aceitas como parte do processo.
Liderar tecnicamente SQUADs na dimensão de engenharia de dados;
Liderar tecnicamente melhorias nos Stacks de dados da Suzano envolvendo outros times.
Responsabilidades especificas
Manter e evoluir arquiteturas de trabalho, tais como bases de dados e sistemas de processamento em larga escala; Otimizar ingestão e saída de dados dos modelos analíticos em desenvolvimento pelos Cientistas de Dados; Garantir segurança e qualidade dos dados e códigos desenvolvidos visando proteger a qualidade do trabalho apresentado internamente na organização; Recomendar e implementar formas de aumentar confiabilidade, eficiência e qualidade dos dados; Garantir que arquitetura comporte necessidades e requisitos técnicos do time de execução; Trabalhar em conjunto com times de TI (Arquitetura, Segurança, Infraestrutura) para garantir robustez e automação nas soluções desenvolvidas.
Seguir e propor melhorias às estratégias para controle de qualidade e governança de códigos; Seguir e propor melhorias ao pipeline DevOps considerando estrutura multi-nuvem.
Desenvolver, construir, testar e manter arquiteturas de trabalho, tais como bases de dados e sistemas de processamento em larga escala; Desenhar, aplicar e aprimorar estratégias para controle de qualidade e governança de códigos; Estruturar e aprimorar pipeline DevOps considerando estrutura multi-nuvem; Otimizar ingestão e saída de dados dos modelos analíticos em desenvolvimento pelos Cientistas de Dados; Garantir segurança e qualidade dos dados e códigos desenvolvidos visando proteger a qualidade do trabalho apresentado internamente na organização; Recomendar e implementar formas de aumentar confiabilidade, eficiência e qualidade dos dados; Descobrir oportunidades para aumentar a aquisição, ingestão e armazenamento de dados; Garantir que arquitetura comporte necessidades e requisitos técnicos do time de execução; Trabalhar em conjunto com times de TI (Arquitetura, Segurança, Infraestrutura) para garantir robustez e automação nas soluções desenvolvidas.
Conceber e garantir que arquitetura comporte necessidades e requisitos técnicos do time de execução; Fazer mentoria do time técnico de engenheiro de dados com foco no desenvolvimento profissional.
Idiomas:
Inglês – Nível Avançado e Inglês – Nível Intermediário