|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
$ ?) ~# ^! Q% a0 G1 h# J" @& v( z+ |$ e
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
# }6 U |) u, @+ Y4 L效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
$ k) q7 g3 C! {' p7 X! ?----------------------------------------
$ d! D" h! u. F; }$ O8 a) T显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
) \/ p, a/ _ y0 B5 I在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。0 @8 u. Z& r0 m0 B& C* T* |8 f
----------------------------------------
& O( a# `; d u P0 F( Shttps://github.com/guillaumekln/faster-whisper, }, c! Q4 h" a/ I9 {% e
安装如下:6 U! p0 w( `9 r3 \# ]
1, Windows 10
% c% N, e( M( E+ A4 f2, Python 3.10.113 D, f5 }1 X0 _1 v T. P, \8 S
3, CUDA 12.1% k- L) i: z9 F8 h3 @# N: i
4, 在python 3 中安装0 z7 f0 s( s O/ B
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
" ~# B$ ~* j% i( g+ @: _* s这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
" z- j- j! j+ a3 \' o5,pip install -U openai-whisper! q1 m. Q) h/ d
这是向whisper 致敬,可以不装
$ L' v' M. L9 L7 @# E6,pip install faster-whisper: n; h+ M) s4 c* k5 r5 ^& d
----------------------------------------$ a6 B* A T& z3 X% v* n
whisper 我用的命令行,faster-whisper 我用的是python。# a! ~4 l3 L H) h8 M' [
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:3 W) Y. m! t6 a1 P3 }$ |8 u
, r0 Z% B" }$ a* D& M" Z& `----------------------------------------% X: _3 `! @1 L" D$ p
& V2 }1 K1 {7 f! K1 qfrom faster_whisper import WhisperModel* m" Y9 g9 y: A
, p) ~$ I# G! p8 j9 O2 P) t$ Z
model_size = "small"
3 v; W9 H ^+ X1 s
! s1 I9 J6 d+ _4 w1 L" Dmodel = WhisperModel(model_size, device="cuda", compute_type="int8"); O9 \9 ?6 o8 R* n
& M; w& l& p" w: I; j3 O; fsegments, info = model.transcribe(
( X! ]( t+ f' s: T3 N sourceFileName,
9 @! T, m; U3 Q+ k6 _5 @ beam_size=5,
9 j+ y% Y$ {5 S" j language="en", / `1 b7 D- \* u) ~5 Q+ m& m
task="transcribe",
- M I p9 ?6 Z+ s( _ word_timestamps=True, % l* _$ ?% m% U$ {9 P2 b/ N
initial_prompt = "Hello, welcome to my lecture.")6 b* N: {2 _3 [' p! P2 s
3 T$ R2 c9 E* r/ I$ O5 a9 U& _
for segment in segments:
7 f, f4 j" B9 a ^/ I* S print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
! \: Y( o; Y( _7 l" V4 o- X3 |) \
$ W" O" E6 y4 O U0 P( |. Y for word in segment.words:
) m5 e: e# g( I7 K& E
9 r$ D6 n2 b$ d8 A# U* o, _----------------------------------------" `4 C4 K# @; L2 c5 q& P1 m8 q* i" ~3 P
q& f( B$ R8 g6 H: x& J
代码说明:
# L. Z. c, { M& k4 H1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
5 W, M) I# F2 S0 M2 J但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
7 Z3 z V; T- e' z. U- G8 S% j2,segment 本身是很粗糙的,做字幕勉强能用。
( _ _' t$ r" X. s. ]3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。# V' |; u2 ]- g5 M2 Y2 E" T2 q
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
0 J+ N. j0 E' j比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。# _6 K& S* z& N5 e5 j8 D/ h8 q
5,model.transcribe 中参数说明:
' J. t- m' T8 ?$ D你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
; s" E# J) z( I( B& q' a$ d其中
2 p, D- u% U7 b/ L1 q4 a6 s" c word_timestamps=True, 9 f3 w/ e4 L( f5 _$ p
保证了你能拿到 word,否则是拿不到的. H) N y' u& q
initial_prompt = "Hello, welcome to my lecture.")
8 C& A( Y# f5 M+ X$ p) `保证能尽可能准确的断句 punctuation,但是不是决定性的。
' O J' h' }3 A. p其他参数可参考源文件:
$ K/ g; l$ n( V% E- w6 @https://github.com/guillaumekln/ ... isper/transcribe.py9 c1 o: [6 M6 l9 I1 M& j
152 def transcribe(
, G8 Z/ N1 \$ U+ o+ {. R从源文件你可以看到是支持中文的句号断句的。6 @9 d1 F. ]6 N8 q! _8 }! a7 k
3 R5 v3 r4 x g7 O6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。# a' P* ^" o( d2 c/ G
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。8 n! L! P& s( A. P# m6 n
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
# @6 o5 i' _' T8 p
& E0 X$ h$ f5 a3 c
# h1 k: c# d2 j* c; q! v+ s: A3 O
|
评分
-
查看全部评分
|