![](/img/trans.png)
[英]How can i scrape distinct data from a table in Java, Selenium and Chromedriver?
[英]Selenium - How can I scrape this table?
我希望从https://www.worldometers.info/coronavirus/中抓取数据,但似乎表格的tr
和td
在各行中不断变化。 到目前为止,我有下面的代码,但它不起作用。
public ArrayList<Data>getAllData(){
ArrayList<Data>allData = new ArrayList<Data>();
try {
Thread.sleep(10000);
WebDriver browser = load();
int row = browser.findElements(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr")).size();
int col = browser.findElements(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr[1]/td")).size();
for ( int i = 3; i < row; i++) {
for ( int j = 1; j < col; j++) {
Data data = new Data();
data.setId(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
data.setCountry(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
data.setTotalCases(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
data.setNewCases(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
data.setTotalDeaths(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
data.setNewDeaths(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
data.setTotalRecovered(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
data.setActiveCases(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
data.setSeriousCases(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
data.setTotalCasesPerMillionPop(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
data.setTotalDeathsPerMillionPop(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
data.setTotalTests(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
data.setTestsPerMillion(browser.findElement(By.xpath("/html[1]/body[1]/div[3]/div[3]/div[1]/div[4]/div[1]/div[1]/table[1]/tbody[1]/tr["+i+"]/td["+j+"]")).getText());
allData.add(data);
}
}
browser.quit();
browser.close();
}
catch(Exception e) {
e.printStackTrace();
}
return allData;
}
您当前正在做的是查找与行和列匹配的所有元素 - 但随后您正在导航表上的索引位置,而不是您找到的实际元素。
如果您查看开发工具中的表格主体,您可以看到它包含从视图中隐藏的总行数。 USA 是第 3 行(在 devtools 中突出显示),但第 4、5 和 6 行是总数。
如果您展开,那么列号和内容会有所不同。
有几点建议:
尝试更智能的 xpath 来获取所有行:(这似乎跳过了那些标题)
//table[@id="main_table_countries_today"]//tr[@role="row"]
然后,使用 foreach 循环迭代您找到的行元素(不是通过 xpath 索引)。 并且,在该循环内,获取每行中的 td 标签。
例如:
public void GettingAllTheData(){
//Get all the ROWS that match
var rows = driver.findElements(By.xpath("//table[@id='main_table_countries_today']//tr[@role='row']"));
//loop all rows
for (var row : rows) {
//Then get the columns within the row object!
var cols = row.findElements(By.tagName("td"));
//replace this with writing out your data
//this is jut to make sure it writes out as expected.
//You might not need a second loop
for (var col : cols)
{
System.out.println(col.getText());
}
}
}
我不想重新创建您的数据 object 所以我只是打印。 对我来说,这似乎始终如一地写出结果。
第一次迭代:
1
USA
3,619,643
+2,816
140,200
+56
1,646,683
1,832,760
16,459
10,933
423
44,867,389
135,518
331,081,677
第二次迭代:
2
Brazil
1,972,072
+1,163
75,568
+45
1,366,775
529,729
8,318
9,275
355
4,911,063
23,098
212,620,008
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.