[英]How can I use `rest/api/content` to download all the 800k pages of my Confluence wiki without timing out?
我想下載我的 Confluence wiki 的所有 800k 頁。
我想使用:
curl -u wikiusername:wikipassword https://wiki.hostname.com/rest/api/content?start=1`
並簡單地將start
從1
增加到800000
。
但是,響應時間隨着start
的增加而增加,並且從 ~ 150,000
開始超時:
start |
響應時間(秒) |
---|---|
1 | 0.4 |
1,000 | 2.5 |
10,000 | 9 |
50,000 | 112 |
100,000 | 286 |
200,000 | 暫停 |
如何使用rest/api/content
下載我的 Confluence wiki 的所有 800k 頁面而不會超時?
選項 1 :
使用developer.atlassian.com/server/confluence /... 中的 limit 參數 - Elazaron
選項 2:逐個空間下載,因為這個 Python 2 腳本通過其 API 遞歸地導出 Confluence 空間和頁面: https://.com mirror
我確認選項 2 有效。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.