★ Latest · Gen. AI · TK Technologies — 2026
★ Mais Recente · IA Generativa · TK Technologies — 2026
AUTOMOTIVE MARKET PRICE INTELLIGENCE PLATFORM
PLATAFORMA DE INTELIGÊNCIA DE PREÇOS AUTOMOTIVOS
Engineered a distributed web scraping architecture in Python with proxy rotation to extract pricing/metadata
from 10+ sites. Orchestrated complex LLM-driven ETL workflows via n8n, utilizing Claude AI and Google AI
Studio for unstructured data parsing. Built a RAG-based conversational agent with LangChain to enable
natural language querying of SQL datasets. Infrastructure fully containerised using Docker on Azure VMs.
Engenhou uma arquitetura de web scraping distribuída em Python com rotação de proxies para extrair preços e
metadados de 10+ sites. Orquestrou workflows ETL complexos baseados em LLMs via n8n, utilizando Claude AI e
Google AI Studio para parsing de dados não estruturados. Desenvolveu um agente conversacional baseado em RAG
(LangChain) para consultas em linguagem natural a bancos SQL. Infraestrutura conteinerizada com Docker em
Azure VMs.
Pythonn8n
Claude AIGoogle AI Studio
LangChainAzure
DockerWeb Scraping
RAG / LLMs
Personal Project — Jan 2026
Projeto Pessoal — Jan 2026
MODERN CLOUD DATA PIPELINE
PIPELINE DE DADOS EM NUVEM
Designed a scalable ELT architecture leveraging Snowflake as a cloud data warehouse. Orchestrated complex
DAG dependencies using Apache Airflow to trigger containerised dbt executions via Docker. Implemented
incremental materializations and CI/CD data testing in dbt, reducing data anomalies. Configured role-based
access control (RBAC) and optimized Snowflake compute warehouses to balance performance and cost.
Projetou uma arquitetura ELT escalável utilizando Snowflake como data warehouse em nuvem. Orquestrou
dependências complexas de DAGs usando Apache Airflow para acionar execuções do dbt conteinerizadas via
Docker. Implementou materializações incrementais e testes de dados CI/CD no dbt, reduzindo anomalias.
Configurou controle de acesso baseado em funções (RBAC) e otimizou os warehouses virtuais do Snowflake.
Snowflakedbt Core
Apache AirflowDocker
PythonSQL
Client Project — Feb 2024
Projeto de Cliente — Fev 2024
IOT DATA LAKEHOUSE ON AWS
IOT DATA LAKEHOUSE NA AWS
Architected an enterprise-grade AWS S3 Lakehouse processing 100M+ daily IoT/RFID records. Pioneered a
Medallion architecture using PySpark and Delta Lake, with a rigorous focus on Data Governance and
Compliance. Enforced strict LGPD/GDPR standards through row-level security and automated data
masking, ensuring secure handling of sensitive judicial telemetry. Configured Trino for high-performance
federated querying.
Arquitetou um Lakehouse corporativo na AWS S3 processando 100M+ registros diários. Pioneirismo na
arquitetura Medallion usando PySpark e Delta Lake, com foco rigoroso em Governança e Compliance de
Dados. Garantiu conformidade estrita com LGPD/GDPR através de segurança em nível de linha (RLS) e
mascaramento automático, assegurando o manuseio de dados sensíveis.
AWS S3PySpark
Delta LakeApache Airflow
TrinoApache Superset
Docker
Client Project — Jul 2023
Projeto de Cliente — Jul 2023
PAYMENTS DATA WAREHOUSE
DATA WAREHOUSE DE PAGAMENTOS
Developed a robust data integration framework connecting to multiple REST APIs (PagSeguro, Stone, Cielo)
handling pagination, rate limiting, and OAuth authentication. Built Python-based incremental extraction
pipelines, loading raw JSON payloads into a staging area before transforming them into a Kimball dimensional
model (Star Schema) on SQL Server. Implemented rigorous data quality checks orchestrated via Airflow.
Desenvolveu um framework robusto de integração de dados conectando a múltiplas REST APIs (PagSeguro, Stone,
Cielo), lidando com paginação, rate limiting e autenticação OAuth. Construiu pipelines Python de extração
incremental, carregando payloads JSON brutos em uma staging area antes da transformação para um modelo
dimensional de Kimball (Star Schema) no SQL Server. Implementou verificações de qualidade orquestradas via
Airflow.
PythonSQL
REST APIsSQL Server DW
Apache AirflowPower BI
Client Project — Oct 2022
Projeto de Cliente — Out 2022
JOHN DEERE AGRIBUSINESS DATA PIPELINE
PIPELINE DE DADOS JOHN DEERE — AGRONEGÓCIO
Engineered an automated data ingestion pipeline targeting the John Deere Operations Center API. Implemented
advanced Python handlers for complex JSON responses, robust error handling with exponential backoff, and
secure credential management. Structured the extracted agronomic and telemetry data into optimized tables
within an Oracle Autonomous Database, indexing critical dimensions to accelerate heavy analytical queries in
Power BI.
Engenhou um pipeline de ingestão automatizado focado na API do John Deere Operations Center. Implementou
scripts avançados em Python para o tratamento de respostas JSON complexas, gerenciamento de erros com
exponential backoff e gestão segura de credenciais. Estruturou dados agronômicos em tabelas otimizadas no
Oracle Autonomous Database, criando índices nas dimensões críticas para acelerar consultas analíticas no
Power BI.
PythonJohn Deere REST API
Oracle Cloud (OCI)Apache Airflow
Power BISQL