Skip to content
View wesleyolvr's full-sized avatar

Block or report wesleyolvr

Block user

Prevent this user from interacting with your repositories and sending you notifications. Learn more about blocking users.

You must be logged in to block users.

Maximum 250 characters. Please don’t include any personal information such as legal names or email addresses. Markdown is supported. This note will only be visible to you.
Report abuse

Contact GitHub support about this user’s behavior. Learn more about reporting abuse.

Report abuse
wesleyolvr/README.md

Hi there, I'm Wesley Oliveira! 🚀

🇵🇹 Ler em Português | 🇺🇸 Read in English

🇵🇹 Versão em Português

Engenheiro de Dados | AWS & Databricks | Arquitetura Lakehouse

Sou um Engenheiro de Dados com 6 anos de experiência focado em preencher a lacuna entre ambientes caóticos e dados bem estruturados. A minha especialidade é desenhar, construir e manter pipelines de dados altamente escaláveis e arquiteturas resilientes.

Onde a maioria dos pipelines falha, eu atuo: o meu principal fator de diferenciação é a Ingestão de Dados de Alta Complexidade (web scraping avançado, engenharia reversa de APIs e superação de proteções estritas). Garanto que os dados fluam de forma contínua e segura para arquiteturas modernas orientadas a eventos (Event-Driven) e ecossistemas Lakehouse.

🛠️ Stack Tecnológica & Arsenal

  • Cloud & IaC (Infraestrutura como Código): AWS (S3, ECS, Lambda, SQS, CloudWatch), Terraform
  • Processamento de Dados: Apache Spark (PySpark), Databricks, Delta Lake
  • Orquestração e Fluxo de Trabalho: Apache Airflow (MWAA), Celery
  • Engenharia de Software: Python (Avançado), CI/CD (GitHub Actions, Jenkins), Docker, TDD
  • Mensageria & Arquitetura Orientada a Eventos: RabbitMQ, Amazon SQS, Dead Letter Queues (DLQs)

📊 O que estou a construir atualmente

  • Estruturação de pipelines End-to-End com base na Medallion Architecture (Bronze/Silver/Gold).
  • Processamento de mais de 2 milhões de registos diários com recurso a arquiteturas orientadas a eventos na AWS.
  • Desenvolvimento do DataRadar: Um pipeline Lakehouse que orquestra dados do Reddit e integra modelos de inteligência artificial (Llama 3.3) para extração de insights através da Groq API.

🏆 Certificações

  • Databricks Certified Databricks Fundamentals (2026)

📫 Vamos conectar!

LinkedIn Email


🇺🇸 English Version

Data Engineer | AWS & Databricks | Lakehouse Architecture

I am a Data Engineer with 6 years of experience bridging the gap between chaotic environments and structured data. I specialize in designing, building, and maintaining highly scalable data pipelines and resilient architectures.

Where most pipelines fail, I thrive: my core differentiator is High-Complexity Data Ingestion (advanced web scraping, API reverse engineering, and bypassing strict protections), ensuring data flows continuously into modern Event-Driven and Lakehouse architectures.

🛠️ Tech Stack & Arsenal

  • Cloud & IaC: AWS (S3, ECS, Lambda, SQS, CloudWatch), Terraform
  • Data Processing: Apache Spark (PySpark), Databricks, Delta Lake
  • Orchestration & Workflow: Apache Airflow (MWAA), Celery
  • Software Engineering: Python (Advanced), CI/CD (GitHub Actions, Jenkins), Docker, TDD
  • Messaging & Event-Driven: RabbitMQ, Amazon SQS, Dead Letter Queues (DLQs)

📊 What I'm currently working on

  • Architecting End-to-End Medallion (Bronze/Silver/Gold) pipelines.
  • Processing over 2 million daily records using Event-Driven architectures on AWS.
  • Building DataRadar: A Lakehouse pipeline orchestrating Reddit data with LLM (Llama 3.3) insights via Groq API.

🏆 Certifications

  • Databricks Certified Databricks Fundamentals (2026)

📫 Let's Connect!

LinkedIn Email


"Building the foundation so that data can drive the future."

Pinned Loading

  1. DataRadar DataRadar Public

    Monitora comunidades tech do Reddit e usa IA Groq API para extrair ferramentas em alta, dores da comunidade e soluções propostas. Airflow + S3 + Lambda + Databricks + FastAPI.

    Python

  2. modular-ingestion-framework modular-ingestion-framework Public

    Framework Python para pipelines de ingestão de dados com arquitetura modular: conectores, validadores Pydantic, transformers e loaders (JSON, PostgreSQL) plugáveis.

    Python 2

  3. ai-career-assistant ai-career-assistant Public

    Chatbot de IA que responde a perguntas sobre meu currículo, utilizando Python, FastAPI, Streamlit e a arquitetura RAG com a API do Google Gemini.

    Python 1

  4. shein_crawler shein_crawler Public

    O Crawler Shein é um projeto de Web Scraping automatizado desenvolvido para extrair informações detalhadas de produtos no site Shein.

    Python 13

  5. ats-scraper ats-scraper Public

    Python

  6. rpa_challenge rpa_challenge Public

    Python