繁体   English   中英

在保持其顺序的同时删除列表中的重复项(Python)

[英]Remove duplicates in a list while keeping its order (Python)

这实际上是这个问题的延伸。 删除重复项后,该问题的答案没有保留列表的“顺序”。 如何在列表中删除这些重复项(python)

biglist = 

[ 

    {'title':'U2 Band','link':'u2.com'}, 
    {'title':'Live Concert by U2','link':'u2.com'},
    {'title':'ABC Station','link':'abc.com'}

]

在这种情况下,应该删除第二个元素,因为先前的“u2.com”元素已经存在。 但是,应该保留订单。

使用set(),然后使用原始列表的索引重新排序。

>>> mylist = ['c','a','a','b','a','b','c']
>>> sorted(set(mylist), key=lambda x: mylist.index(x))
['c', 'a', 'b']

我对你完全忽略的另一个问题的答案,表明你声称这是错误的

这个问题的答案没有保持“秩序”

  • 我的回答确实保持秩序,它明确表示确实如此。 在这里再次强调,看看你是否可以继续忽略它......:

对于一个非常大的列表, 如果你想保留剩余物品的确切顺序,可能是最快的方法,如下......:

biglist = [ 
    {'title':'U2 Band','link':'u2.com'}, 
    {'title':'ABC Station','link':'abc.com'}, 
    {'title':'Live Concert by U2','link':'u2.com'} 
]

known_links = set()
newlist = []

for d in biglist:
  link = d['link']
  if link in known_links: continue
  newlist.append(d)
  known_links.add(link)

biglist[:] = newlist

发电机很棒。

def unique( seq ):
    seen = set()
    for item in seq:
        if item not in seen:
            seen.add( item )
            yield item

biglist[:] = unique( biglist )

本页讨论了不同的方法及其速度: http//www.peterbe.com/plog/uniqifiers-benchmark

推荐*方法:

def f5(seq, idfun=None):  
    # order preserving 
    if idfun is None: 
        def idfun(x): return x 
    seen = {} 
    result = [] 
    for item in seq: 
        marker = idfun(item) 
        # in old Python versions: 
        # if seen.has_key(marker) 
        # but in new ones: 
        if marker in seen: continue 
        seen[marker] = 1 
        result.append(item) 
    return result

f5(biglist,lambda x: x['link'])

*通过该页面

这是一种优雅而紧凑的方式,具有列表理解(但不像字典那样有效):

mylist = ['aaa','aba','aaa','aea','baa','aaa','aac','aaa',]

[ v for (i,v) in enumerate(mylist) if v not in mylist[0:i] ]

在答案的背景下:

[ v for (i,v) in enumerate(biglist) if v['link'] not in map(lambda d: d['link'], biglist[0:i]) ]
dups = {}
newlist = []
for x in biglist:
    if x['link'] not in dups:
      newlist.append(x)
      dups[x['link']] = None

print newlist

产生

[{'link': 'u2.com', 'title': 'U2 Band'}, {'link': 'abc.com', 'title': 'ABC Station'}]

请注意,我在这里使用了字典。 这使得测试not in dups比使用列表更有效。

尝试这个 :

list = ['aaa','aba','aaa','aea','baa','aaa','aac','aaa',]
uniq = []
for i in list:
               if i not in uniq:
                   uniq.append(i)

print list
print uniq

输出将是:

['aaa', 'aba', 'aaa', 'aea', 'baa', 'aaa', 'aac', 'aaa']
['aaa', 'aba', 'aea', 'baa', 'aac']

一个非常简单的方法是:

def uniq(a):
    if len(a) == 0:
        return []
    else:
        return [a[0]] + uniq([x for x in a if x != a[0]])

这不是最有效的方法,因为:

  • 它在整个列表中搜索列表中的每个元素,因此它是O(n ^ 2)
  • 它是递归的,因此使用的堆栈深度等于列表的长度

但是,对于简单的用途(不超过几百项,而不是性能关键)就足够了。

我认为使用套装应该非常有效。

seen_links = set()
for index in len(biglist):
    link = biglist[index]['link']
    if link in seen_links:
        del(biglist[index])
    seen_links.add(link)

我认为这应该在O(nlog(n))

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM