import urllib.request, requests, urllib.parse, time

url = 'https://fr.wikinews.org/w/api.php?action=query&utf8=1&list=categorymembers&cmtitle=Cat%C3%A9gorie%3ACat%C3%A9gorie+avec+article+principal&cmlimit=500'

def recup_cat(url) :
    liste= []
    file = urllib.request.urlopen(url)
    for i in file :
        i = i.strip()
        if i.startswith(b'<span class="s2">&quot;title&quot;</span><span class="o">:</span> <span class="s2">') :
            i = i.split(b'>')
            i = i[5].decode('UTF-8')
            i = i.split('<')
            i = i[0].split(":")
            i = i[1].split("&")
            i = i[0]
            liste.append(i)
            
    return liste
    

trt = recup_cat(url)
print(trt)
['Abkhazie', 'Allemagne', 'Amérique', 'Andorre', 'Argentine', 'Belgique', 'Brésil', 'Bulgarie', 'Canada', 'Chili', 'Chine', 'Corée du Nord', 'Corée du Sud', 'Écosse', 'Égypte', 'Estonie', 'États-Unis', 'France', 'Grèce', 'Hongrie', 'Irak', 'Italie', 'Kazakhstan', 'La Réunion', 'Libye', 'Lituanie', 'Madagascar', 'Nigeria', 'Norvège', 'Nouvelle-Calédonie', 'Organisation des Nations unies', 'OTAN', 'Ouganda', 'Philippines', 'Québec', 'République tchèque', 'Roumanie', 'Royaume-Uni', 'Russie', 'Slovénie', 'Suède', 'Suisse', 'Ukraine', 'Union européenne']