|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
% f3 o2 K H$ t+ ~' o- W/ V' D- y
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。0 I7 p) J( B+ f7 @# J3 H8 b
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。/ e* {, q3 m, M' q; \! u
----------------------------------------
7 q8 d8 z. I" H% I* C: l2 ?显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。8 k( ? d0 p/ Y+ Y3 F+ \* K9 Q3 w
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
" [( J9 E% L& L----------------------------------------7 F- ]0 H6 o: g" n4 M8 Z
https://github.com/guillaumekln/faster-whisper
8 A W( J" f' p! E; [安装如下:
6 T! X% k9 L$ h- Q. g- i1, Windows 101 {+ j: Q4 ^6 w( C9 I
2, Python 3.10.11
. f4 ^* G* |4 P0 O3, CUDA 12.18 y5 }5 N. F1 y
4, 在python 3 中安装
( P2 f8 L" \" \pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
9 ^' E4 z3 i9 m" M# z2 x这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
2 j) B/ D4 j" ^* {/ g- } m5,pip install -U openai-whisper
; d9 s& A+ K. v8 ^这是向whisper 致敬,可以不装
$ i2 i" G( d& ?5 `7 K- c5 E0 J6,pip install faster-whisper
( J4 V ?- I5 \# R5 \- ]----------------------------------------& U L& ~; h, V L
whisper 我用的命令行,faster-whisper 我用的是python。
; k; I7 s3 r* \8 R5 _, i9 w8 p下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:3 E( n2 y# ^ w* _, o9 ^5 U5 C
2 [; {( R( w1 p----------------------------------------* H$ u% l$ \3 g! o9 H, R2 u, C6 y3 ^$ C
) R' \0 H8 I1 @6 ` l& m ]from faster_whisper import WhisperModel2 [! Y4 G! f+ m& S5 e6 i: P
; P1 ?( w0 X) [0 m; Wmodel_size = "small"9 C |1 z$ C1 j5 S! ~8 f
4 u2 o+ U% D! Q' [& ^
model = WhisperModel(model_size, device="cuda", compute_type="int8")
+ q3 }: A" @, k: ~
) h5 h5 r) [- P, O9 g& k3 h* osegments, info = model.transcribe(
1 W: \$ z- v& V, p. ~8 p0 F sourceFileName,
7 {6 m: x G" ~1 o# c beam_size=5, & `3 d, }3 f/ M7 y
language="en",
- D; ?% S" J$ t8 a: s. H task="transcribe", 0 Z2 t; Z- e8 ~% T* y3 J
word_timestamps=True,
1 g5 u) n e$ q; Y2 O' b initial_prompt = "Hello, welcome to my lecture.")
# n% s) p/ P1 x) @+ ?* G* J! N- f- s* ~ W
for segment in segments:
5 W+ o/ F0 W0 w4 A5 B$ J print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
) d. ?2 v B& D8 E* B, J, s) }8 j/ J4 L/ \9 G4 b
for word in segment.words:
" z; Q" ^4 b" c2 P* X ! x |/ n( A7 M
----------------------------------------
5 X9 ]3 j4 S0 c a& T9 C
, S$ T. p' v3 H8 o& P. s代码说明:
" h0 D2 I2 R/ y+ g( j/ _) @1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。5 m7 w: p. C- b; @7 S
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。' K- f# }7 h: t7 j
2,segment 本身是很粗糙的,做字幕勉强能用。" P# j& U T" w! p9 |+ ^
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
, m, B. U d! P5 H4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
( p+ w3 z0 T: ?- j1 n比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。3 q3 v, q& n/ F7 R+ f2 z
5,model.transcribe 中参数说明:( ^4 Z1 w. U2 s! C; g4 Y
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
, l1 d2 j6 v9 M% Z2 x其中. G8 K- w. e$ X0 d/ \4 Q2 Z! c# N
word_timestamps=True, 4 v. A1 k) f0 `' \' x! n
保证了你能拿到 word,否则是拿不到的
* ?( B" k$ P7 L- J initial_prompt = "Hello, welcome to my lecture.")4 M' E' G4 g, i, @8 Z, r
保证能尽可能准确的断句 punctuation,但是不是决定性的。
8 ^3 y+ n, R/ m9 M5 I! E其他参数可参考源文件:
" K% W/ U% d% Ehttps://github.com/guillaumekln/ ... isper/transcribe.py
; e/ e8 K0 g9 j+ O+ ?6 S5 O152 def transcribe(
9 X6 ?* j$ e9 J! ~) P8 t! Q$ ?从源文件你可以看到是支持中文的句号断句的。
" f& b! |/ ?4 _" D; l; a/ p3 v
$ N! O, ?+ r+ ]6 k! f2 D# J3 l6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。7 B. p- D5 h3 X
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
1 d! X+ i1 ^* U9 M5 _1 F4 e8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
$ l' u" t3 D: c$ X4 S2 m) S: z3 O8 V5 q
* R* N x8 a1 H3 u3 b5 m1 L/ M3 W' @% C! V
|
评分
-
查看全部评分
|