• Skip to primary navigation
  • Skip to main content
  • Skip to footer
Scinonova logo
  • Start
  • Om oss
  • Karriär
  • Blogg
  • Kontakt
  • Svenska

Programming

Uppkopplad Medtech 🩺

23 maj, 2025 by Towe Breuss

Smartare, säkrare och mer effektiv blodanalysutrustning

För en av våra kunder inom medicinteknik utvecklade vi en avancerad edge-lösning som kopplar befintlig blodanalysutrustning direkt till molnet. Lösningen gör det möjligt att övervaka, underhålla och uppdatera utrustningen på distans, vilket säkerställer maximal tillgänglighet med högsta möjliga säkerhet.

Vårt uppdrag:

  • Säker fjärrhantering och användarkontroll
  • Over-the-air mjukvaruuppdateringar
  • Realtidsövervakning av analysdata
  • Robust säkerhet

Teknologier och verktyg:

  • Embedded Linux
  • Azure IoT Hub
  • Websockets/JSON
  • TLS implementation med hårdvaruskyddade kryptonycklar

Test och kvalitetssäkring:

  • Google Test
  • NUnit
  • Selenium

Genom att kombinera IoT, molnteknologi och cybersäkerhet hjälpte vi vår kund att implementera en framtidssäker lösning som lyfter medicinteknik till nästa nivå.

Vill du veta hur vi kan hjälpa dig att ta nästa steg?
Kontakta oss redan idag! 📩

Magin bakom AI:n – Destillering

15 april, 2025 by Towe Breuss

För startups kan AI vara en game changer – men stora språkmodeller (LLM:er) är ofta kostsamma och kräver mycket datorkraft. En lösning är destillering, en teknik som komprimerar AI-modeller för att göra dem mer effektiva utan att drastiskt försämra prestandan. Det innebär att även mindre företag kan använda avancerad AI utan skyhöga molnkostnader.

Vad innebär detta för din startup?

🔸 Lägre kostnader: Mindre AI-modeller minskar behovet av dyra molntjänster.
🔸 Bättre skalbarhet: AI kan växa med din verksamhet utan stora kostnader.
🔸 Snabbare AI: Responsiva system förbättrar användarupplevelsen.
🔸 AI på mobila enheter: Möjliggör AI på mobiler och IoT utan molnberoende.
🔸 Smartare AI: Effektiva reasoning-modeller för komplex problemlösning.

Destillering fungerar genom att en mindre modell (studenten) lär sig från en större modell (läraren), ofta genom att träna på lärarens output. Detta gör att startups kan bygga optimerade AI-lösningar som presterar på topp – utan att bränna hela budgeten på infrastruktur.

💫 Framtidens AI är kompakt, snabb och smart – är din startup redo att ta steget?

Kontakta oss för mer information!

Scionova @ Flutter & Friends  

25 september, 2024 by Scionova

Flutter & Friends is a unique conference that brings together Flutter enthusiasts, developers, and experts from all over the world. It’s an opportunity to dive deep into the Flutter ecosystem, share knowledge, and build connections within the community. Recognizing the strength of Flutter and Friends, Scionova sent three of our consultants to attend the conference to strengthen our connection with the Flutter community and check out the latest hot topics in Flutter. Here is what Kelly, Kianoosh, and Sahil thought about it. 

This year’s Flutter & Friends Conference was a fantastic experience for us.  The three-day event, which took place from Sunday, August 31, to Tuesday, September 2, gathered 301 attendees and it wasn’t just about Flutter—it also gave us a chance to connect through fun and engaging social activities. 

We loved how the event struck a balance between technical talks and networking opportunities. From walks at the zoo to a bar outing with a fun quiz tournament, and even a party that featured a coding competition in the middle of the celebration, we had an amazing time. It was a great way to meet interesting people, and we left with a lot of new connections and ideas. 
 
To give a quick summary of this experience, we will share the moments that stood out the most for us during the event.

PS: To see he recordings and the slides from the event please access: https://github.com/spydon/flutter_and_friends_slides  

Day 1: Social Activities (August 31) 

The first day was all about helping attendees connect. We kicked things off with a relaxing walk at the zoo, followed by a bar outing with a quiz tournament. It was a fun way to break the ice and build connections before the technical talks began. 

Day 2: Talks (September 1) 

The second day was dedicated to technical talks, and it was packed with insightful sessions from Flutter experts. Here are some of our favorite talks from the day: 

  • Keynote – Empathetic Flutter 
    The opening speech was held by Craig Labenz. His talk made us remember that the first Futter beta version was launched in May 2017 and in less than seven years, it has built a large community and revolutionized cross-platform mobile development. It made us reflect on how we can continue growing our community to include more developers and create applications that reach an even wider audience.  
  • Flutter web superfast: WASM  
    Renan Araujo held a speech with the promise of explaining how WebAssembly compilation for Flutter can turn tables for web performance, a promise he later delivered. The introduction of WebAssembly Garbage Collection has opened doors for Flutter to build its web applications in WebAssembly instead of JavaScript. This means that applications are faster and run with close to native experience. All good things come with a price and in this instance, the price is limited availability as only Chromium browsers fully support this at the moment, and as the transition requires some changes in the code some libraries that you want to use might not be “wasm-ready. These issues will be resolved with time, and the future of Flutter web looks bright. 

Day 3: Workshops (September 2) 

The third and final day was focused on hands-on workshops, where we had the chance to dive deeper into practical Flutter development. These were some of the workshops that really stood out to us: 

  • Simplify Design Systems and Designer/Developer Collaboration with Widgetbook 
    This workshop was led by the Widgetbook team. They focused on one of the biggest challenges in software projects: making sure developers and designers communicate well. We learned how Widgetbook helps solve this problem with its library, and how Widgetbook Cloud makes PR reviews easier. This has us excited to use these tools in our own projects to improve teamwork and get better results. 
  • Let’s test it with Patrol! 
    This workshop was led by the LeanCode team, and we really enjoyed it. They provided a great overview of integration testing with Patrol, Flutter’s first UI testing tool. We found it to be more intuitive than Flutter’s own testing framework, which Patrol builds upon. This session inspired us to dive deeper into Patrol so we can incorporate it into our own projects. 

The Flutter & Friends Conference was an inspiring event, leaving us with fresh insights, stronger connections, and practical tools to bring into our projects. It was the perfect blend of learning and community-building, making it a truly memorable experience. Big thanks to the organizers (Alek Åström, Lukas Klingsbo & Johannes Pietilä Löhnn) and to Scionova for giving us the opportunity. 

Magin bakom AI:n, LLM pt.2 

18 april, 2024 by Scionova

För att utmana föreställningen om att ChatGPT och andra avancerade språkmodeller är närmast magiska, gav vår kollega Jerker oss nyligen en genomgång av flera grundläggande komponenter som gör dessa AI-teknologier möjliga. Bland dessa komponenter nämndes “context”, “embeddings” och “attention”, vilka ligger till grund för modellernas förmåga att generera naturligt och precist språk.  

I vårt senaste inlägg diskuterade vi “context”, som hjälper modellen att förutse vilket svar den ska ge dig. Nu ska vi gå vidare till att utforska “tokenization”, som omvandlar dina skrivna ord till förståbara siffror för modellen, samt “embeddings”, vilka fångar den språkliga betydelsen av ord och deras relationer. 

Innan vår “context” kan bearbetas av modellen måste den först genomgå något som kallas tokenisering eller “tokenization”. Detta är den process där text, som vi människor kan förstå, översätts till siffror som LLM:en sedan kan arbeta med.  

Exempel: Om vi tar meningen “This is a tokenized context” och tokeniserar den med GPT-4 (olika språkmodeller har olika tokenisering) blir utfallet följande sex siffror:  

 2028(This), 374( is), 264( a), 4037( token), 1534(ized), 2317( context).  

När jag skriver ovanstående mening ser alltså GPT-4 följande token: “2028 374 264 4037 1534 2317”. Tokeniseringen är en avgörande optimering för att göra kontexten lättare att hantera. Utan denna process skulle det vara för många siffror att bearbeta, vilket skulle försämra modellens effektivitet. 

Efter tokeniseringen kan tokens sedan omvandlas till “embeddings”. Embeddings fångar den språkliga betydelsen av olika ord och deras relation till varandra. Detta möjliggör en djupare förståelse för språkliga mönster och sammanhang, vilket är kritiskt för att AI-modellen ska kunna generera begripligt innehåll. 

Exempel: Tänk dig att varje ord har en slags kod, en “embedding”, som representerar dess betydelse. Om vi har koden för ordet “kung” och sedan tar bort koden för “man” och lägger till koden för “kvinna”, så hamnar vi nära koden för “drottning”. Detta beror på att embeddings fångar de språkliga relationerna mellan ord. “Kung” och “drottning” är relaterade på ett sätt som liknar relationen mellan “man” och “kvinna”. På detta sätt hjälper således embeddings AI-modeller att förstå och producera språkligt korrekt innehåll. 

Avslutningsvis är tokenisering och embeddings viktiga delar av AI-modellens effektivitet och förmåga. Det är dock värt att notera att medan kontext är synligt för användaren, förblir embeddings dolda och är en intern del av modellens funktion. Vidare är embeddings en del av transformer-tekniken, som vi kommer gå igenom i nästa inlägg. 

Magin bakom AI:n, LLM pt.1

7 mars, 2024 by Scionova

Nyligen fick vi en grundlig genomgång av de avancerade funktionerna bakom ett av de mest omtalade AI-verktygen just nu: LLM:er (Large Language Models), såsom ChatGPT. Sammanfattningsvis är en LLM en typ av AI som tränats för att till exempel skapa, översätta och/eller sammanfatta stora mängder text.  

För att utmana föreställningen om LLM:er som nästintill magiska ting gick vår kollega Jerker igenom flera nyckelkomponenter som möjliggör AI:ns funktion, däribland “kontext”, “embeddings” och “attention”. Dessa utgör grundläggande byggstenar som ger LLM:en sin förmåga att generera naturligt språk på ett precist och nyanserat sätt.  

“Kontext” innebär både den information du ger modellen i chatten samt den information modellen själv genererat i samtalet. Kontexten gör det möjligt för LLM:en att bättre prediktera svar, eftersom modellen vet inom vilket sammanhang den ska hämta information ifrån. När du startar en ny chatt ger du modellen en ny kontext, och LLM:en börjar sedan om med att utgå från den nya information du delger.  

Kontexten är således något vi kan ändra för att påverka vad modellen genererar. Väldigt små skillnader i kontext kan innebära stora skillnader i output. Om du exempelvis skriver “Jag korsade vägen för att komma till banken.” kommer LLMen ge dig en helt annan output än om du istället skriver “Jag korsade floden för att komma till banken”.  

Förutom den kontext du ger den har ChatGPT en förutbestämd grundkontext (kallad en “system prompt”). Denna grundläggande kontext gör att programmet vet att det är en hjälpsam AI-assistent som finns till för att generera svar till dig som användare. Det finns möjlighet att ändra denna ‘system prompt’, beroende på vad du har för interface i modellen. 

Att få en djupare förståelse för hur dessa verktyg fungerar hjälper oss inte bara att upptäcka deras potential och begränsningar, utan också att utforska nya möjligheter och anpassningar av tekniken.  

I nästa inlägg kommer vi att gå igenom embeddings, en av modellens effektiviseringsverktyg där ord omvandlas till siffror.   

Introducing Scionova DEVHOUSE

7 november, 2023 by Jonas Kurol

Are you searching for a dedicated partner to bring your embedded IoT projects to life?

Scionova specializes in IoT and connectivity, with a team of highly skilled professionals with expertise in various domains, including:

  • Mobile communication
  • Embedded Android
  • Embedded Linux
  • Low-power embedded solutions
  • Automotive technology
  • Industrial standards
  • Testing and certification

We recognize that you may require specific expertise or have limited resources to actualize your vision for the next groundbreaking IoT solution. That’s why we offer you our full support and collaboration through our service, DevHouse. DevHouse acts as a platform to leverage our extensive knowledge and innovative abilities, to create the best possible product for you.

We use state-of-the-art tools and methods to ensure quality and reliability in our deliveries. Our way of working allows us to actively share our knowledge base, codebase, product platforms, and even hardware across various projects. We reuse and adapt our previous work, always with respect to intellectual property, which allows us both to save time and resources in the startup phase of each assignment. No matter the challenge, we can turn your ideas into reality.

Want to know more?
Contact Jonas at jonas.kurol@scionova.com.

  • Go to page 1
  • Go to page 2
  • Go to Next Page »

Footer

Göteborgskontoret


Theres Svenssons Gata 13,
417 55 Göteborg

Varbergskontoret


Kungsgatan 28b,
432 44 Varberg

Gasell