GPT
Obsah boxu
GPT (Generative Pre-trained Transformer) je označení pro rodinu velkých jazykových modelů vyvinutých společností OpenAI. Zkratka GPT znamená Generative Pre-trained Transformer, tedy generativní předtrénovaný model založený na transformerové architektuře. Tyto modely patří mezi nejznámější a nejrozšířenější příklady umělé inteligence v oblasti zpracování přirozeného jazyka (NLP).
První verze – GPT – byla představena v roce 2018, následovaná modelem GPT-2 v roce 2019, který upoutal pozornost svou schopností generovat souvislý a smysluplný text na základě krátkého vstupu. V roce 2020 byla vydána verze GPT-3, která obsahovala 175 miliard parametrů a otevřela novou éru tzv. velkých jazykových modelů schopných zero-shot nebo few-shot učení, tedy bez nutnosti rozsáhlého přizpůsobování pro konkrétní úkoly.
Nejnovější verze, GPT-4, byla spuštěna v roce 2023 a poskytla výrazné zlepšení v oblasti porozumění, logické úvahy, programování, překladu i multimodálního zpracování (text + obraz). Modely GPT jsou nasazeny například ve službě ChatGPT, kterou využívají miliony lidí po celém světě.
Modely GPT využívají techniku předtrénování na obrovských objemech dat z internetu, knih, encyklopedií a dalších veřejných textových zdrojů, následovanou doladěním pomocí učení s učitelem a zesíleného učení od lidské zpětné vazby.
Tyto modely se uplatňují v celé řadě oblastí – od vzdělávání, přes zákaznický servis, vědecký výzkum až po kreativní psaní. Zároveň vyvolávají diskuse o bezpečnosti, etice, autorských právech a dopadu na pracovní trh.
Kategorie
- Velké jazykové modely
- Umělá inteligence
- Zpracování přirozeného jazyka
- Hluboké učení
- Strojové učení
- Transformery
- OpenAI
- Software s umělou inteligencí
- Generativní modely
- Chatboti
- Internetové technologie
- Informační věda
- Textové generátory
- Digitální nástroje
- Technologie 21. století
- Etika technologií
- Multimodální AI
- Neuronové sítě
- Učení s posilováním
- Software z roku 2018
- Americké technologické projekty
- Komunikační technologie