|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
4 g6 f* l* y: w8 l) @& V/ r6 Y1 s8 o7 \' B. h" D; ?4 g; x
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。7 I4 X) i* | C
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
- B5 U: H# O: d- k I' X1 [----------------------------------------: m% C# o, J/ c+ g: ]
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。5 I, ?7 n8 r* G7 ~
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。 s4 O3 y1 F4 X2 Y6 A3 Y
----------------------------------------
2 G7 g5 D/ x' W# T. Ohttps://github.com/guillaumekln/faster-whisper0 d: D% e* z8 S1 B7 ^( N2 {
安装如下:
R7 C* A2 ~' I8 u2 W1, Windows 10/ q/ G, G5 u( b
2, Python 3.10.11* i) k, q5 P S4 n
3, CUDA 12.1& p4 u. o& T% [- U" u; m
4, 在python 3 中安装
5 ^2 j" n5 r, N2 M$ Y, p% Bpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117% q( E8 a. A: v$ T0 z& ~5 n2 j3 c
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。! ^% U/ B# o5 v$ u/ @
5,pip install -U openai-whisper- [, U; w4 U; k# M
这是向whisper 致敬,可以不装2 F9 K" H* Q) |/ K! W( p& [ c! D; F3 w
6,pip install faster-whisper
: n- u* X6 i F3 ^----------------------------------------
2 Y; _+ Y6 Y( J( z' W# g2 cwhisper 我用的命令行,faster-whisper 我用的是python。
- d( V+ b, ~) ]/ n; O下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:6 R1 A3 M( l# E3 h( p6 Q+ P8 }
. }) i7 j' C1 C' y----------------------------------------& h5 K! s; y3 q& f# M
( @6 _ s' U8 ]from faster_whisper import WhisperModel) p+ l y7 ^0 {/ w8 S; y6 h
/ E" t) \8 j0 F! S2 F T
model_size = "small"
# s* h# n4 X8 x3 t e* b8 H, d2 Q7 L. A& F7 l+ }
model = WhisperModel(model_size, device="cuda", compute_type="int8")
- O. p" E. d' W: c, A" w
% w/ i* O. I6 esegments, info = model.transcribe(
; x: E F- g3 v/ L sourceFileName, 7 h- N7 G5 u T1 J: P/ H! q
beam_size=5, / N; R& Z) g+ D) w, W: J
language="en", ) I; w+ t4 |9 {, n7 X
task="transcribe", + x ?( ]6 f. n8 l3 w; g0 M
word_timestamps=True, 8 E: m9 K% ~, {* j3 \; K" @
initial_prompt = "Hello, welcome to my lecture.")$ L' [& X3 q O$ T3 C: t6 {
! ]/ P4 J' q/ [9 t1 Q( Y/ U
for segment in segments:. D8 T3 A( S6 u9 k
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))8 M5 m8 r5 _ v4 Q7 Q# w# f
& W3 t3 {0 y' c4 r' H N8 |" B+ | for word in segment.words:
' g( g9 p! G6 H( A1 I& p! j' R* r ) s" Q# ]% o/ m, Q
----------------------------------------+ d" J& v1 U4 X- d9 V( `% F
- S5 s- M- }& B7 \# j6 d; o代码说明:
" Z7 G8 ?- q% T7 B( F0 n" U# ^# L1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
w0 n4 G: A0 r" R! V但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
3 o+ Y0 m; Z& e7 m4 q2,segment 本身是很粗糙的,做字幕勉强能用。6 ]# q2 K" A U/ P9 Z0 p, C
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
# ^ K( {! p' Q& R4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中) p2 k7 o) c. }6 ^$ F
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。 a$ V, h P) @7 B
5,model.transcribe 中参数说明:
. Q% p* L$ U# [, n. Y3 f5 G你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
* i; _' N+ n/ z; l; a \9 u其中' b- H% V* `5 }. S7 j
word_timestamps=True,
4 }" r# h) G% Z保证了你能拿到 word,否则是拿不到的
. Y& w9 d+ D" P: Y: ]- z8 `5 q" y initial_prompt = "Hello, welcome to my lecture.")
! p5 i' A8 Q( B$ J5 v: _9 e保证能尽可能准确的断句 punctuation,但是不是决定性的。
) ^5 }+ x. h; s& l6 E- O其他参数可参考源文件:
2 s2 @! ]% U8 V* qhttps://github.com/guillaumekln/ ... isper/transcribe.py0 ]- p/ c1 Y$ h* U& @ W. ~: I
152 def transcribe(* a, L8 E8 q* w! C2 E. p: A% U
从源文件你可以看到是支持中文的句号断句的。
j3 W& Q- N7 V# ^5 F- `0 \& p2 y( G7 u
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
$ t- N' j) f. {( v& u7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
( k7 k) _+ P- T) ]: q4 |8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
& N9 P, t, D& x; o6 Y& N: h5 Q; K
0 c+ X" ~: X' W; d
9 i F* L2 f8 l# U: K! Z/ {. P$ J. T8 k! V E
|
评分
-
查看全部评分
|