|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
5 w5 \4 m/ h* t0 S3 ~3 E( }# h9 T* Q6 T/ j. c% O+ {7 z
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
, L8 C; {$ b3 ]- i- |1 ^效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。0 R3 w3 Q$ d7 f1 V0 H* F0 L
----------------------------------------; `( c7 W8 y |/ f ?1 Y
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。$ _; ^1 p) I$ ~/ @' S, `+ c
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
& I4 z { W# x5 S2 U) R4 y----------------------------------------, _; \8 z. V# s4 K; v
https://github.com/guillaumekln/faster-whisper- [! G. m: @# F( I. x' c
安装如下:
* Z" i: s3 d- h" T; o/ P1, Windows 10
7 m2 F8 ?: D, |; S2, Python 3.10.11
+ E5 T' E% b$ p) U3 k/ X1 ^* b3, CUDA 12.1
1 E: f( V1 n& N1 H. x v4, 在python 3 中安装
) J0 B1 O0 G0 z- n' l; B# npip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
, d1 m9 i3 B, n) v7 v这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
: x1 Z3 X! e6 d8 r. D* B+ j8 G5,pip install -U openai-whisper
+ r3 b5 F9 v: F+ u1 m4 X, A8 T这是向whisper 致敬,可以不装
9 `6 ^ v- [% o; p5 s& h, F6,pip install faster-whisper9 d, q/ l: J. v
----------------------------------------
$ {" X) `6 d0 k' l8 p/ x1 a' `! ]whisper 我用的命令行,faster-whisper 我用的是python。/ A2 E; R6 Q/ v% D& Z* B
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:* v5 z7 T! K2 Y2 [' ~" B$ g. |) E0 H
& w+ Q. F5 Z& _' H----------------------------------------) u3 q. O! t; v9 S, g6 ^2 K/ g
# @/ l/ J }) H' \$ ~4 rfrom faster_whisper import WhisperModel& G3 F* O5 ^4 h6 J! @, @" [
8 z- i9 `* N# {
model_size = "small"
1 u" O3 T! S7 h* z/ Y# l
( r4 x9 r+ h) ` ^model = WhisperModel(model_size, device="cuda", compute_type="int8")0 L$ r7 Z; I3 c5 o
( {7 t* x3 W: ?' vsegments, info = model.transcribe(
- B6 j2 w8 A- o4 [( R sourceFileName,
1 W# r, e4 x# R beam_size=5,
& ]; N: F: q( @- n language="en",
6 A5 I5 m! \: p/ g task="transcribe", ( X/ \1 G& ^8 f5 O- _! V) Q0 K
word_timestamps=True,
, c9 o( C n4 y3 M/ t# f initial_prompt = "Hello, welcome to my lecture.")5 q1 S" F" |: n9 C+ _2 D/ k
; ?/ v( J* ~5 @7 m! {8 ?" B
for segment in segments:# o% K" a7 L$ T2 }5 G
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
, q. X0 E& m( u1 I+ N$ z. z" T6 ~
3 i) q9 e: i+ y% M3 Q for word in segment.words:, N5 R0 s. }/ B% T7 K
( f% G: O5 n* ^5 v7 `3 W% _5 W5 _6 i
----------------------------------------8 L% C8 S) \, w/ l# l2 P
# y4 \, H+ C& ?/ O6 r+ O代码说明:
) E1 z$ X8 B+ `# D/ o, N1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
3 V6 t% a0 J% R$ K1 `) L% Z但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
) o0 B. @$ A$ ~# b2,segment 本身是很粗糙的,做字幕勉强能用。
0 W9 b- ]+ \8 @3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。8 B6 @2 B: [( x8 e
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中7 o+ a7 t: i9 a0 j# s/ o' V0 K* J
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。& K- [5 f2 v7 f& |, s
5,model.transcribe 中参数说明:
9 @, h6 O: f/ b; z( c+ @你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数) p% ^& o/ p! B# c' w s- T
其中
5 ]' R2 k7 | ~' {0 V word_timestamps=True, : r2 M% V+ Q3 Z4 q
保证了你能拿到 word,否则是拿不到的
3 \0 W& I0 b( h( O0 c initial_prompt = "Hello, welcome to my lecture.")
& O3 \0 P: T7 h* o& m5 e% U, u. z保证能尽可能准确的断句 punctuation,但是不是决定性的。5 h5 X9 a# r. }, R( e# [
其他参数可参考源文件:: a# j+ u. s1 M
https://github.com/guillaumekln/ ... isper/transcribe.py* D- e0 K- ?' e# |9 m( Q
152 def transcribe(
8 |' a+ ]# J0 t0 {& S: Q从源文件你可以看到是支持中文的句号断句的。
2 u5 U3 ~& }3 l |) b# \; |# M7 `1 B/ A+ ^ n" c
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
- f' T; Q9 ]$ @7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
: L, O, K% [7 T6 F- O8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。) G3 s: }- j: [, ^, O
; Q6 g& _- D3 v1 f/ j
! Q9 ?1 f; [3 b& d+ {/ E
2 [+ Q% b( t; w
|
评分
-
查看全部评分
|