簡體   English   中英

如何使用 `rest/api/content` 下載我的 Confluence wiki 的所有 800k 頁面而不會超時?

[英]How can I use `rest/api/content` to download all the 800k pages of my Confluence wiki without timing out?

我想下載我的 Confluence wiki 的所有 800k 頁。

我想使用:

curl -u wikiusername:wikipassword https://wiki.hostname.com/rest/api/content?start=1`

並簡單地將start1增加到800000

但是,響應時間隨着start的增加而增加,並且從 ~ 150,000開始超時:

start 響應時間(秒)
1 0.4
1,000 2.5
10,000 9
50,000 112
100,000 286
200,000 暫停

如何使用rest/api/content下載我的 Confluence wiki 的所有 800k 頁面而不會超時?

選項 1

使用developer.atlassian.com/server/confluence /... 中的 limit 參數 - Elazaron

選項 2:逐個空間下載,因為這個 Python 2 腳本通過其 API 遞歸地導出 Confluence 空間和頁面: https://.com mirror

我確認選項 2 有效。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM