![](/img/trans.png)
[英]Unable to fetch all the necessary links during Iteration - Selenium Python
[英]Fetch all links using Selenium Python
在一个网页中,有 15 个链接以相似的链接名称开头,它们位于 iframe 中。 如果我尝试获取那些并非所有链接都被获取。 下面是我试过的代码。
driver = webdriver.Chrome(ChromeDriverManager().install())
WebDriverWait(driver, 20).until(EC.frame_to_be_available_and_switch_to_it(("xpath", "//*[@id='brandBand_2']/div/iframe")))
wo_link1 = WebDriverWait(driver, 20).until(EC.visibility_of_all_elements_located(("partial link text", 'SA')))
for link in wo_link1:
print(str(link.get_attribute("href")))
如果我手动将网页缩小到最大程度,那么我可以得到所有的链接。 有没有其他方法可以在不缩小的情况下获取这些链接?
options = Options()
options.add_argument("start-maximized")
visibility_of_all_elements_located
实际上不会等待与传递的定位器匹配的所有元素都可见。 实际上,它等待至少 1 个与传递的定位器匹配的元素可见,然后返回当时捕获的所有匹配元素。driver = webdriver.Chrome(ChromeDriverManager().install())
WebDriverWait(driver, 20).until(EC.frame_to_be_available_and_switch_to_it(("xpath", "//*[@id='brandBand_2']/div/iframe")))
WebDriverWait(driver, 20).until(EC.visibility_of_all_elements_located(("partial link text", 'SA')))
time.sleep(1)
wo_links = driver.find_element(By.PARTIAL_LINK_TEXT, 'SA')
for link in wo_links:
print(str(link.get_attribute("href")))
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.