ETL pipeline para indexar dados do PostgreSQL no Elasticsearch e criar um MCP Server para buscas.
Subir um ambiente com:
- PostgreSQL contendo dados da AdventureWorks
- Elasticsearch para armazenar os dados indexados
- Serviço ETL para migração dos dados
- Futuro MCP Server para realizar buscas nos índices
- PostgreSQL
- Elasticsearch
- Kibana (opcional para visualização)
- Python (ETL)
- Clone o repositório
- Execute:
docker compose up --buildetl/: Contém o código Python do ETL e Dockerfileetl.py: Script principal de extração e cargainit/: Configuração inicial do PostgreSQL
docker-compose.yml: Orquestração dos serviços
- Primeiro ele carrega a base de dados com os produtos no postgres
- Segunto é criado um index do elasticsearch para buscas envolvendo os produtos carregados (baseados em uma view)
- Terceiro é instanciado uma view no Kibana para visualização da corretude dos dados carregados
- A pipeline não carrega o MCP apenas disponibiliza para acesso via agente.