{"id":3203,"date":"2024-03-07T09:38:59","date_gmt":"2024-03-07T08:38:59","guid":{"rendered":"https:\/\/www.scionova.com\/?p=3203"},"modified":"2024-03-07T09:43:52","modified_gmt":"2024-03-07T08:43:52","slug":"magin-bakom-ain-llm-pt-1","status":"publish","type":"post","link":"https:\/\/www.scionova.com\/en\/magin-bakom-ain-llm-pt-1\/","title":{"rendered":"Magin bakom AI:n, LLM pt.1"},"content":{"rendered":"\n<p>Nyligen fick vi en grundlig genomg\u00e5ng av de avancerade funktionerna bakom ett av de mest omtalade AI-verktygen just nu: LLM:er (Large Language Models), s\u00e5som ChatGPT. Sammanfattningsvis \u00e4r en LLM en typ av AI som tr\u00e4nats f\u00f6r att till exempel skapa, \u00f6vers\u00e4tta och\/eller sammanfatta stora m\u00e4ngder text.\u202f&nbsp;<\/p>\n\n\n\n<p>F\u00f6r att utmana f\u00f6rest\u00e4llningen om LLM:er som n\u00e4stintill magiska ting gick v\u00e5r kollega Jerker igenom flera nyckelkomponenter som m\u00f6jligg\u00f6r AI:ns funktion, d\u00e4ribland &#8220;kontext&#8221;, &#8220;embeddings&#8221; och &#8220;attention&#8221;. Dessa utg\u00f6r grundl\u00e4ggande byggstenar som ger LLM:en sin f\u00f6rm\u00e5ga att generera naturligt spr\u00e5k p\u00e5 ett precist och nyanserat s\u00e4tt.\u202f&nbsp;<\/p>\n\n\n\n<p>&#8220;Kontext&#8221; inneb\u00e4r b\u00e5de den information du ger modellen i chatten samt den information modellen sj\u00e4lv genererat i samtalet. Kontexten g\u00f6r det m\u00f6jligt f\u00f6r LLM:en att b\u00e4ttre prediktera svar, eftersom modellen vet inom vilket sammanhang den ska h\u00e4mta information ifr\u00e5n. N\u00e4r du startar en ny chatt ger du modellen en ny kontext, och LLM:en b\u00f6rjar sedan om med att utg\u00e5 fr\u00e5n den nya information du delger.\u202f&nbsp;<\/p>\n\n\n\n<p>Kontexten \u00e4r s\u00e5ledes n\u00e5got vi kan \u00e4ndra f\u00f6r att p\u00e5verka vad modellen genererar. V\u00e4ldigt sm\u00e5 skillnader i kontext kan inneb\u00e4ra stora skillnader i output. Om du exempelvis skriver \u201cJag korsade v\u00e4gen f\u00f6r att komma till banken.\u201d kommer LLMen ge dig en helt annan output \u00e4n om du ist\u00e4llet skriver \u201cJag korsade floden f\u00f6r att komma till banken\u201d.&nbsp;&nbsp;<\/p>\n\n\n\n<p>F\u00f6rutom den kontext du ger den har ChatGPT en f\u00f6rutbest\u00e4md grundkontext (kallad en &#8220;system prompt&#8221;). Denna grundl\u00e4ggande kontext g\u00f6r att programmet vet att det \u00e4r en hj\u00e4lpsam AI-assistent som finns till f\u00f6r att generera svar till dig som anv\u00e4ndare.\u202fDet finns m\u00f6jlighet att \u00e4ndra denna \u2018system prompt\u2019, beroende p\u00e5 vad du har f\u00f6r interface i modellen.&nbsp;<\/p>\n\n\n\n<p>Att f\u00e5 en djupare f\u00f6rst\u00e5else f\u00f6r hur dessa verktyg fungerar hj\u00e4lper oss inte bara att uppt\u00e4cka deras potential och begr\u00e4nsningar, utan ocks\u00e5 att utforska nya m\u00f6jligheter och anpassningar av tekniken.\u202f&nbsp;<\/p>\n\n\n\n<p>I n\u00e4sta inl\u00e4gg kommer vi att g\u00e5 igenom embeddings, en av modellens effektiviseringsverktyg d\u00e4r ord omvandlas till siffror.<strong> <\/strong>\u202f&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Nyligen fick vi en grundlig genomg\u00e5ng av de avancerade funktionerna bakom ett av de mest omtalade AI-verktygen just nu: LLM:er (Large Language Models), s\u00e5som ChatGPT. Sammanfattningsvis \u00e4r en LLM en typ av AI som tr\u00e4nats f\u00f6r att till exempel skapa, \u00f6vers\u00e4tta och\/eller sammanfatta stora m\u00e4ngder text.\u202f&nbsp; F\u00f6r att utmana f\u00f6rest\u00e4llningen om LLM:er som n\u00e4stintill magiska [&hellip;]<\/p>\n","protected":false},"author":3,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_genesis_hide_title":false,"_genesis_hide_breadcrumbs":false,"_genesis_hide_singular_image":false,"_genesis_hide_footer_widgets":false,"_genesis_custom_body_class":"","_genesis_custom_post_class":"","_genesis_layout":""},"categories":[59],"tags":[60,63,62,61,14,19],"_links":{"self":[{"href":"https:\/\/www.scionova.com\/en\/wp-json\/wp\/v2\/posts\/3203"}],"collection":[{"href":"https:\/\/www.scionova.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.scionova.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.scionova.com\/en\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.scionova.com\/en\/wp-json\/wp\/v2\/comments?post=3203"}],"version-history":[{"count":2,"href":"https:\/\/www.scionova.com\/en\/wp-json\/wp\/v2\/posts\/3203\/revisions"}],"predecessor-version":[{"id":3215,"href":"https:\/\/www.scionova.com\/en\/wp-json\/wp\/v2\/posts\/3203\/revisions\/3215"}],"wp:attachment":[{"href":"https:\/\/www.scionova.com\/en\/wp-json\/wp\/v2\/media?parent=3203"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.scionova.com\/en\/wp-json\/wp\/v2\/categories?post=3203"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.scionova.com\/en\/wp-json\/wp\/v2\/tags?post=3203"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}