Hopp til innhold
  • 0 Anbefalinger
    1 Innlegg
    379 Visninger
    Ingen har svart
  • 0 Anbefalinger
    1 Innlegg
    281 Visninger
    Ingen har svart
  • 0 Anbefalinger
    1 Innlegg
    275 Visninger
    Ingen har svart
  • 0 Anbefalinger
    1 Innlegg
    250 Visninger
    Ingen har svart
  • 0 Anbefalinger
    1 Innlegg
    255 Visninger
    Ingen har svart
  • Open Data Day 2025, 2025-03-01~07, Online

    Møter og arrangementer
    1
    0 Anbefalinger
    1 Innlegg
    251 Visninger
    Ingen har svart
  • 0 Anbefalinger
    1 Innlegg
    267 Visninger
    Ingen har svart
  • 0 Anbefalinger
    1 Innlegg
    278 Visninger
    Ingen har svart
  • 0 Anbefalinger
    1 Innlegg
    249 Visninger
    Ingen har svart
  • 0 Anbefalinger
    1 Innlegg
    355 Visninger
    Ingen har svart
  • Distribuere data via GitHub

    Tips og spørsmål
    9
    1
    0 Anbefalinger
    9 Innlegg
    10k Visninger
    L
    @Halvor-Aarnes sa i Distribuere data via GitHub: Hei, Når jeg prøver å laste ned filen dataset.csv får jeg beskjed om at filen er for stor. Er dette en begrensning på min pc, eller er det en begrensning på filen ? Er det andre muligheter for å laste ned ? (gjelder dataset for produksjon-og-avløsertilskudd/202 - CSV fil) Hei, Feilmeldingen i skjermbildet ditt er bare at filen i datasettet er for stor til å forhåndsvises i GitHub i nettleseren. Du kan fint laste ned filen og åpne lokalt, for eksempel i ditt foretrukne rekneark-program. Ein måte å gjøre det på er å høyre-klikke på «View raw» og velge Last ned, lagre filen lokalt og så åpne. Håper dette hjelper
  • 0 Anbefalinger
    6 Innlegg
    3k Visninger
    L
    @Per-Schrader Jeg skal plukke opp tråden over nyttår. Blant annet sjekke planene for å oppdatere biblioteket for å konvertere fra Swagger/Open API specification (OAS) til DCAT. Tillater meg å nevne kollega @terje-sylvarnes som jeg tror er interessert i denne tråden.
  • 0 Anbefalinger
    11 Innlegg
    11k Visninger
    jens.andresen.osbergJ
    @maritbre Hei! Denne skulle du naturligvis fått svar på for veldig, veldig lenge siden. Så her er det all grunn til å beklage fra vår side. Vi kjenner ikke til at det finnes helt generelle retningslinjer for merking av KI-generert tekst. I KI-forordningens artikkel 50 stilles det krav til åpenhet for at brukeren av et KI-system må kunne forstå at de samhandler med et KI-system. I tilknytning til denne vil det nok komme standarder eller praksis for hvordan man merker KI-generert innhold. På et generelt grunnlag er dette med merking likevel krevende. En aktør kan oppgi at det er KI-generert, men det finnes ingen garanti for at denne informasjonen følger innholdet dersom det brukes videre i andre sammenhenger. På lengre sikt trenger man en annen tilnærming til denne problematikken. Vi kjenner til to ulike tilnærminger: Automatisert deteksjon av KI-materiale: Dette innebærer bruk av en KI-modell trent til å identifisere KI-generert materiale. Vi registrerer at det finnes ulike selskaper som tilbyr slike løsninger. Det er imidlertid utfordringer knyttet til nøyaktigheten av modellene, og hvordan de kan påvirke ulike grupper på en uheldig måte. I tillegg krever endringer i de store generative KI-systemer at deteksjonsverktøyene kontinuerlig oppdateres for å holde tritt. Til dette kommer også mulige teknikker for å omgå slike systemer. Dette kan du lese mer om hos Faktisk her: Kan vi stole på KI-detektorer? Vannmerking: Dette innebærer at det legges inn et usynlig vannmerke i det KI-genererte innholdet ved å påvirke sannsynlighetsfordelingen i genereringen av innholdet slik at det kan identifiseres senere. Denne artikkelen fra forskere ved universitetet i Maryland går inn på dette og jeg ser den er mye sitert: A Watermark for Large Language Models Artikkelen forklares ganske godt i denne videoen fra Universitetet i Nottingham: Ch(e)at GPT? - Computerphile Vi ser at Google Deepmind har kommet nokså langt med en slik tilnærming med sin Synth-ID som gjelder for flere modaliteter, inkludert bilder. Ser at dette arbeidet også henviser til artikkelen nevnt fra forskerne ved universitetet i Maryland. Selv om vannmerking høres ut som en god løsning, er det også noen utfordringer. Vannmerkingen må implementeres i de generative KI-modellene. Dette krever at alle leverandører av følger standarden, noe som skaper håndhevelses-utfordringer. For eksempel: Hvordan sikrer man at alle implementerer vannmerking, og hvordan gjør man dette med open-source-modeller? I dagens situasjon er det altså en del usikkerhet rundt merking av KI-innhold. I påvente av noen tekniske løsninger må vi da basere oss på en variant hvor vi med «good faith» opplyser om hva som er KI-generert. Spørsmålet da blir imidlertid når vi mener at vi bør opplyse om dette. Tekst: Vi har ikke gitt et generelt råd for merking av KI-generert tekst. Dette skyldes at vi er usikre på om et slikt generelt råd har noen verdi. Vi tror behovet for åpenhet varierer mellom ulike områder og kontekster. For eksempel har vi inntrykket av at visse grupper, slik som journalister og mediehus, har interne retningslinjer for hvordan dette skal gjøres. Vi tenker også at for enkelte offentlige virksomheter i visse sammenhenger vil det være viktig å opplyse om at innholdet er generert av KI. Fordi mer og mer tekst vil være helt eller delvis bearbeidet med et KI-verktøy, tror vi ikke det er så mye poeng å gi et generelt råd om dette, og så kan det heller være opp til de spesifikke områdene og kontekstene å vurdere dette. Kode: I den forrige utgaven av veiledningen fra 2023 ga vi et råd om å opplyse dersom kode var KI-generert. På dette tidspunktet var bruk av verktøy for KI-kodegenerering nokså nytt. Dette rådet er nå fjernet fordi det har blitt veldig vanlig og det mange som har innarbeidet dette i arbeidsflyten, eller som arbeider med det nå. På samme måte som med tekst, og kanskje i en enda større grad, er det usikkert hvor mye nytte brukerne har av å vite at kode er KI-generert. Bilder: For bilder har vi valgt å beholde rådet om merking. I tråd med tankene bak artikkel 50 i KI-forordningen, er det viktig at ingen blir forledet av innhold fra offentlige myndigheter. Med bilder fra en offentlig myndighet, er konteksten av å gi informasjon som offentlig myndighet i seg selv viktig. Derfor har dette verdi, selv om bildet kan bli flyttet og gjenbrukt uten at forbeholdet blir med videre.
  • 0 Anbefalinger
    3 Innlegg
    2k Visninger
    jens.andresen.osbergJ
    Hei @Håvard-Pedersen! Takk for innspillet! Vi arbeider med en oppdatering av veiledningen nå. Noe av oppdateringen vil bli lagt ut de kommende ukene. Her tar vi med arbeidet fra NTNU og Datatilsynet.
  • 0 Anbefalinger
    1 Innlegg
    393 Visninger
    Ingen har svart
  • 1 Anbefalinger
    1 Innlegg
    497 Visninger
    Ingen har svart
  • 0 Anbefalinger
    1 Innlegg
    299 Visninger
    Ingen har svart
  • 0 Anbefalinger
    1 Innlegg
    296 Visninger
    Ingen har svart
  • 0 Anbefalinger
    1 Innlegg
    294 Visninger
    Ingen har svart
  • Finnes en testplattform?

    Tips og spørsmål
    3
    0 Anbefalinger
    3 Innlegg
    939 Visninger
    F
    Takk for utfyllende svar