Når jeg deler en lenke til forumet i Slack vises NodeBB-logoen.
Beste innlegg skrevet av tov.are.jacobsen
-
Logo ved deling av lenke
-
RE: Nedlasting av data om kjøretøy
Jeg har brukt Go med kun standard-biblioteket en del de siste årene for første behandling av store CSV-filer (og sammenstillng av Excel gjennom excelize biblioteket). Go er minne-effektivt med utf-8 internt, og med litt parallell kjøring kan man iterere relativt hurtig på noen GB. I senere tid er Copilot tjenesten til github nyttig og gjør at man kan skrive kommentarer som "UFT-16 with BOM transformer encoding" fremfor å lete i dokumentasjonen (Men, det blir jo litt kodelinjer, så det er ikke noe man alltid ønsker å dra frem)
Dette er egentlig ikke noen erstatning for Pandas i python eller tidyverse i R.
Google BigQuery er ganske rimelig når datasettet blir stort.
-
RE: Whisper - transkribering
@livar-bergheim Her er ett eksempel fra et møte på 56 minutter. Dette tok 96 minutter (Jeg har en 2018-modell av macbook pro med Core i5, så det går nok kjappere på noe nyere)
whisper_print_timings: fallbacks = 1 p / 1 h whisper_print_timings: load time = 5637.30 ms whisper_print_timings: mel time = 15318.44 ms whisper_print_timings: sample time = 13265.51 ms / 15886 runs ( 0.84 ms per run) whisper_print_timings: encode time = 3197293.50 ms / 131 runs (24406.82 ms per run) whisper_print_timings: decode time = 2556895.50 ms / 15882 runs ( 160.99 ms per run) whisper_print_timings: total time = 5788981.00 ms
Seneste innlegg skrevet av tov.are.jacobsen
-
RE: Whisper - transkribering
Jeg har så vidt fått testet litt den modellen som heter NbAiLab/nb-whisper-large-beta og her er det en del positivt å melde, selv om det er en del feil.
Den er definit preget av materalet den er lært opp på og gjør en del forenklinger som er vanlig i undertekster, dette slår noen ganger positivt ut sammenlignet med vanlig whisper.
Jeg har begrenset erfaring med transformer pipelines fordi jeg tidligere kun har brukt whisper.cpp. Jeg skulle gjerne ha fått den til å lage flere varianter og bedt gpt-4 vurdere om setningen ga mening før den landet på et resultat men klarer p.t. ikke helt å se hvordan jeg kunne gjort noe slikt.
Eksempelet på siden var egentlig grei.. Det ble mye installasjon av forskjellige bibloteker og xcode m.m.for å få det til å fungere (og ikke minst huske på å gjøre noe med resultatet)
Det blir spennende å se hvor de tar dette videre, og jeg vil definitivt bruke litt litt mer tid på den.
-
RE: Whisper - transkribering
VG sin Mac-applikasjon er nå gratis tilgjengelig i AppStore:
Skal ha spart de over 3000 timer siden rett før jul.
Det som er bra med denne applikasjonen er støtten for å velge en linje i grensesnittet og høre det tilhørende lydsporet med mulighet til å rette opp feil i selve grensesnittet.
-
RE: Whisper - transkribering
@livar-bergheim Her er ett eksempel fra et møte på 56 minutter. Dette tok 96 minutter (Jeg har en 2018-modell av macbook pro med Core i5, så det går nok kjappere på noe nyere)
whisper_print_timings: fallbacks = 1 p / 1 h whisper_print_timings: load time = 5637.30 ms whisper_print_timings: mel time = 15318.44 ms whisper_print_timings: sample time = 13265.51 ms / 15886 runs ( 0.84 ms per run) whisper_print_timings: encode time = 3197293.50 ms / 131 runs (24406.82 ms per run) whisper_print_timings: decode time = 2556895.50 ms / 15882 runs ( 160.99 ms per run) whisper_print_timings: total time = 5788981.00 ms
-
Whisper - transkribering
Hei,
Jeg har brukt Whisper.cpp en del de siste dagene og har hatt god nytte av det, selv om det blir en god del feil som må rettes.
Vår IT-avdeling har laget noen enkle nytte-scripts for å jobbe med whisper lokalt på maskinen fra shell (Mac): https://github.com/navikt/whisper-transcribe-shell
For å få det hele til å fungere må whisper legges i katalogen under:
https://github.com/ggerganov/whisper.cpp- init.sh for å kompilere og laste ned den største modellen.
- Legg mp4-filen i data-mappen.
- Kjør med run.sh
Dette er samme teknologi som UiO har laget som en intern tjeneste. Det er kjempespennende at slik teknologi har blitt mer tilgjengelig.
-
RE: Nedlasting av data om kjøretøy
Jeg har brukt Go med kun standard-biblioteket en del de siste årene for første behandling av store CSV-filer (og sammenstillng av Excel gjennom excelize biblioteket). Go er minne-effektivt med utf-8 internt, og med litt parallell kjøring kan man iterere relativt hurtig på noen GB. I senere tid er Copilot tjenesten til github nyttig og gjør at man kan skrive kommentarer som "UFT-16 with BOM transformer encoding" fremfor å lete i dokumentasjonen (Men, det blir jo litt kodelinjer, så det er ikke noe man alltid ønsker å dra frem)
Dette er egentlig ikke noen erstatning for Pandas i python eller tidyverse i R.
Google BigQuery er ganske rimelig når datasettet blir stort.
-
Logo ved deling av lenke
Når jeg deler en lenke til forumet i Slack vises NodeBB-logoen.