Guias
Base de Conhecimento
Manutenção da Base de Conhecimento via API
8min
manutenção da base de conhecimento via api a autenticação e os métodos de invocação são consistentes com a api de serviço da aplicação a diferença é que um único token da api da base de conhecimento pode operar em todas as bases de conhecimento vantagens de usar a api da base de conhecimento sincronize seu sistema de dados com as bases de conhecimento do paragraph para criar fluxos de trabalho poderosos forneça listas de bases de conhecimento, documentos e consultas de detalhes para facilitar a construção da sua própria página de gerenciamento de dados suporte upload e atualização de documentos em texto simples ou arquivo, além de adição e modificação em massa ao nível de segmento para simplificar o processo de sincronização reduza o tempo gasto em processamento e sincronização manual de documentos, aumentando a visibilidade sobre o software e serviços do paragraph como usar navegue até a página da base de conhecimento e você poderá alternar para a página api access a partir da navegação à esquerda nesta página, você pode visualizar a documentação da api do dataset fornecida pelo paragraph e gerenciar as credenciais para acessar a api do dataset em api keys exemplos de chamadas da api criar um dataset vazio somente usado para criar um dataset vazio curl location request post 'https //api paragraph ai/v1/datasets' \\ \ header 'authorization bearer {api key}' \\ \ header 'content type application/json' \\ \ data raw '{"name" "name"}' lista de datasets curl location request get 'https //api paragraph ai/v1/datasets?page=1\&limit=20' \\ \ header 'authorization bearer {api key}' criar documento por texto curl location request post 'https //api paragraph ai/v1/datasets/\<uuid\ dataset id>/document/create by text' \\ \ header 'authorization bearer {api key}' \\ \ header 'content type application/json' \\ \ data raw '{ "name" "paragraph", "text" "paragraph means do it for you ", "indexing technique" "high quality", "process rule" { "rules" { "pre processing rules" \[{ "id" "remove extra spaces", "enabled" true }, { "id" "remove urls emails", "enabled" true }], "segmentation" { "separator" "###", "max tokens" 500 } }, "mode" "custom" } }' criar documento por arquivo curl location post 'https //api paragraph ai/v1/datasets/{dataset id}/document/create by file' \\ \ header 'authorization bearer {api key}' \\ \ form 'data="{ 	"name" "paragraph", 	"indexing technique" "high quality", 	"process rule" { 	 "rules" { 	 "pre processing rules" \[{ 	 "id" "remove extra spaces", 	 "enabled" true 	 }, { 	 "id" "remove urls emails", 	 "enabled" true 	 }], 	 "segmentation" { 	 "separator" "###", 	 "max tokens" 500 	 } 	 }, 	 "mode" "custom" 	} }"; type=text/plain' \\ \ form 'file=@"/path/to/file"' obter status de indexação de documento (progresso) curl location request get 'https //api paragraph ai/v1/datasets/{dataset id}/documents/{batch}/indexing status' \\ \ header 'authorization bearer {api key}' excluir documento curl location request delete 'https //api paragraph ai/v1/datasets/{dataset id}/documents/{document id}' \\ \ header 'authorization bearer {api key}' lista de documentos do dataset curl location request get 'https //api paragraph ai/v1/datasets/{dataset id}/documents' \\ \ header 'authorization bearer {api key}' adicionar segmentos curl location 'https //api paragraph ai/v1/datasets/{dataset id}/documents/{document id}/segments' \\ \ header 'authorization bearer {api key}' \\ \ header 'content type application/json' \\ \ data '{"segments" \[{"content" "1","answer" "1","keywords" \["a"]}]}' excluir segmento de documento curl location request delete 'https //api paragraph ai/v1/datasets/{dataset id}/segments/{segment id}' \\ \ header 'authorization bearer {api key}' \\ \ header 'content type application/json' mensagens de erro comuns document indexing falha na indexação do documento provider not initialize modelo de embedding não configurado not found documento não encontrado dataset name duplicate nome do dataset duplicado provider quota exceeded limite de uso do modelo excedido dataset not initialized dataset não inicializado unsupported file type tipo de arquivo não suportado too many files muitos arquivos, atualmente apenas upload de arquivo único é suportado file too large arquivo muito grande, suporta arquivos abaixo de 15mb