<ForrigeUke uke=”26” år=”2024”/>
En del av:
ForrigeUke<ForrigeUke /> er en artikkelserie som oppsummerer hva som skjedde i frontend-verden i uken som var.
Dette var uken for effektiv infrastruktur ⚡️, punktering 🛞, og feilskrivning ✏️ — Og 347 ting skjedde i frontend-verdenen!
«<ForrigeUke /> er en artikkelserie som oppsummerer hva som skjedde i frontend-verden i uken som var.»

Kjemp om sjekkboksene!
En Nolen på X har laget en nettside (onemillioncheckboxes.com) med én million sjekkbokser der hvem som helst kan checke og un-checke om hverandre. Litt av en online-krig dette ✅
Med mange samtidige brukere er det tatt i bruk noen aldri så kløktige teknikker for å håndtere stor trafikk. Blant noen av disse finner vi:
- React-window for å kun rendere synlige sjekkbokser.
- Web sockets for hver individuelle “sjekk”.
- State lagret i redis.
Les mer om dette i denne blogposten!
Nye metoder for Set
i JavaScript!
JavaScript’s Set
er et alternativ til Array
der alle elementer er unike. Nå støtter alle de tre store browser-motorene en hel 😏 mengde 😏nye metoder for operasjoner på disse mengdene. Et par favoritter:
isDisjointFrom()
sjekker om to mengder ikke har noen felles elementer.symmetricDifference()
returnerer alle elementer som kun finnes i én av to mengder.
Les mer om det på Mozilla sin blogg!
New JavaScript Set methods | MDN Blog
AI rett i browser?
Det koker jo greit rundt AI om dagen, er vel ingen som er lei av det enda? 🙃 Jokes aside — dette er faktisk ganske kult.
Google har nemlig gjort en version av Chrome tilgjengelig der deres minste LLM-modell, Gemini Nano, er embedded direkte i nettleseren og tilgjengeliggjøres via window-API’et i JavaScript. Akkurat nå er API’et kun tilgjengelig på Dev-versjonen av Chrome.
For å komme i gang er det bare å opprette en ny text-session slik:
const textSession = await window.ai.createTextSession();
Deretter er det bare å prompte i vei:
const promptResult = await textSession.prompt("Hvor mange ting skjedde i frontend-verdenen i uke 26?");
Bygger du en minimal UI rundt det har du laget en LLM-basert chat-bot på kun en håndfull linjer med kode! 🤯 Se hvordan Theo — t3.gg gjør det her.
Fordeler og bekymringer
Dette er veldig kult og det vil nok kunne være utrolig nyttig å ha en LLM tilgjengelig direkte i nettleser. Én av de umiddelbare fordelene her er at modellen kjører lokalt hos klienten, noe som gjør at man slipper å gjøre kall til en server som bruker store mengder energi på å behandle prompten. LLM-modeller som f.eks. GPT-4 er kjent for å være ekstremt ressurskrevende og er derfor ikke akkurat særlig miljøvennlige. Gemini Nano derimot er liten nok til å kjøre lokalt 🐜
Allikevel uttrykkes det en del bekymringer. Blant annet om minnebruk. Chrome i seg selv er jo ikke akkurat veldig effektiv her. I tillegg har man aspektet om markedsposisjonen til Chrome. Vil Google kun tilgjengeliggjøre window.ai via Chrome? I så fall, vil dette tvinge brukere over vekk fra andre browsere?
Hva tror du?
Det var alt for nå! Vi sees igjen neste uke 👋
Del kunnskapen
Har du en kollega som også hadde dratt nytte av denne artikkelen?
Skrevet av
Mer fra Fag i Bekk
Nå er du ved veis ende. Gå til forsiden hvis du vil ha mer faglig påfyll.
Til forsiden