Skip to content

Criar o Crawler v1 (GitHub API Scraper) #4

@emanueca

Description

@emanueca

Descrição: Precisamos de um serviço (crawler/worker) que busque ativamente por issues no GitHub, usando a API deles, e as salve em nosso banco de dados.

Tarefas (Acceptance Criteria):

[ ] Configurar a autenticação com a API do GitHub (Personal Access Token).

[ ] Criar um script que busque repositórios (baseado em uma lista manual inicial).

[ ] Para cada repositório, buscar suas issues abertas com labels (ex: good first issue, help wanted).

[ ] Salvar as issues encontradas no banco de dados (conforme schema da Issue #3).

[ ] Configurar um agendador (CRON job) para rodar este script periodicamente (ex: a cada 6 horas).

Metadata

Metadata

Assignees

Labels

GRANDE RECONHECIMENTOGanha um grande reconhecimento no diretóriodocumentationImprovements or additions to documentationenhancementNew feature or request

Projects

No projects

Milestone

No milestone

Relationships

None yet

Development

No branches or pull requests

Issue actions