--- datasets: - jerteh/cc100-sr-jerteh - jerteh/SrpWiki - jerteh/SrpELTeC - srwac language: - sr tags: - Srpski - Serbian - GPT2 - generisanje ---

sr-gpt2-large je sada gpt2-orao — Najveći generativni model za srpski jezik.

Generiše novi tekst, ili nastavlja započeti tekstualni unos.\ NOVO: Jednaka podrška unosa i na ćirilici i na latinici! ## Upotreba ```python >>> from transformers import pipeline, set_seed >>> generator = pipeline('text-generation', model='jerteh/gpt2-orao') >>> set_seed(23) >>> generator("", max_length=30, num_return_sequences=5) ``` ``` [{'generated_text': 'Ja, međutim, ne idem na Adu - kaže Miodrag.'}, {'generated_text': 'Domaćinstvo se nalazilo na mestu zvanom Kulina (ranije Kulina Vakuf) i bilo je jedno od najvećih i naj'}, {'generated_text': 'Regionalne razlike se uglavnom odnose na geografski položaj, geografsko-geografski položaj i ekonomsku razvijenost.'}, {'generated_text': 'Od tada do danas Srbija ne stoji na nogama'}, {'generated_text': 'Iz tog razloga, na ovaj način se postiže bolja efikasnost rada, odnosno smanjuje se vreme potrebno za sprovođenje simulacije.'}] ``` Pored navedenih, model je obučavan i na ostalim korpusima [Društva za jezičke resurse i tehnologije](https://jerteh.rs), uključujući korpuse savremenog srpskog jezika: SrpKor2013 i SrpKor2021, kao i korpus [PDRS 1.0](https://www.clarin.si/repository/xmlui/handle/11356/1752) razvijen od strane Instituta za Srpski jezik SANU.

U slučaju potrebe za manjim modelom, pogledajte gpt2-vrabac — manji model obučen na istom korpusu.

Modeli su obučavani na Nacionalnoj platformi za veštačku inteligenciju Srbije (sistem koji se bazira na nVidia DGX sistemima).
Autor
Mihailo Škorić
@procesaur