簡體   English   中英

pyspark init 超類警告

[英]pyspark init super class warning

我在 pySpark 程序的 pyCharm 中創建了一個單元測試類。

class TableLiteral(unittest.TestCase):
   def __init__(self, table_value):
      self.table_value = [x.strip().strip("|") for x in table_value.split("\n") if x.strip() != '']
      # The above code is as part of my development

現在,我唯一擔心的是__init_正在突出顯示對__init_ of super class is missing警告調用。 你能不能更新我必須更新的地方,因為我是 python 類的新手。

這不是強制性的,很大程度上取決於您是否正在使用類繼承的真正協作層次結構。 換句話說:pycharm 在這種情況下過於熱心了——因為人們通常不必調用unittest.TestCase的超類。

也就是說,您所要做的就是在__init__方法中添加像super().__init__()這樣的行。

(如果您使用的是 Python 2 而不是 Python 3(您應該使用),對super的調用需要您明確填寫類和實例參數 - 所以它變成: super(TableLiteral, self).__init__()

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM