[英]R rgl lidR slow rendering on Windows 11 64 bit
我正在嘗試使用 LiDAR 數據(1.7 GB 對象)手動識別/糾正樹木,並且通過locate_trees
function 的tree tops
object。 部分問題是:
4 GB Nvidia 3050
應該能夠處理 Rgl,但它的渲染速度非常慢。 rgl 是自動使用GPU
還是默認使用主板上的集成顯卡? 有沒有辦法加快渲染?
我的其他系統規格是 Corei9(14 線程)和 64 GB RAM。 此外,我正在使用R
4.2.1
。
代碼:
library(lidR)
# Import LiDAR data
LiDAR_File = readLAS("path/file_name.las")
# Find tree tops
TTops = find_trees(LiDAR_File , lmf(ws = 15, hmin = 5))
# Manually correct tree identification
TTops_Manual = locate_trees(LiDAR_File , manual(TTops)) # This is where rgl rendering becomes too slow if there are too many points involved.
rgl
無法顯示太多點。 plot
中的 plot function 很方便,可以制作准備發布的插圖,但不能替代大型點雲的真實點雲查看器。 我的電腦上沒有 GPU,我不知道rgl
是否以及如何利用 GPU。
在您正在談論的 lidR function 的文檔中,您可以看到:
這僅適用於小型地塊
這里有兩個問題。 首先,用於 select 樹的lidR::manual()
function 有一個循環,其中為每棵樹繪制一個球體。 默認情況下rgl
會在每次更改后重新繪制整個場景; 這應該被壓制。 https://github.com/r-lidar/lidR/pull/611中的補丁修復了這個問題。 您可以安裝帶有此修復程序的版本
remotes::install_github("r-lidar/lidR")
其次, rgl
在繪制數據的初始點雲方面效率低下,不必要地復制數據。 當您擁有數千萬點時,這可能會耗盡所有 R memory,並且事情進展緩慢。 rgl
的開發版本修復了這個問題。 它可以通過
remotes::install_github("dmurdoch/rgl")
LiDAR 圖像非常大,因此您可能會發現即使進行了這些更改,您仍然會遇到問題。 獲得更多常規 RAM 將有助於 R:如果第一次顯示的時間太長,您可能需要這個。 第一次顯示后,幾乎所有的工作都在圖形系統中完成; 如果事情仍然太慢,您可能需要更快的顯卡(或更多的 memory)。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.