|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 * Q3 q! I9 P. d8 Q
- x, {- m- ` r$ v7 v7 d& m1 l7 ^借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。+ i- S' [! O7 ~2 q# @
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
e3 Q' s4 [3 `! y* w7 ^, I6 C% O6 A6 L----------------------------------------. v- ?, o4 v, p. s* q1 F
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。: M) E) J; b# m, {" n0 k
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
9 |4 R4 Q0 G! N; A! i% g# V----------------------------------------+ \; C1 {1 L) h1 S! y3 _& p& v
https://github.com/guillaumekln/faster-whisper
$ l; S) r2 I5 { P7 _4 f9 u+ _安装如下:
3 v! _* H( o8 @. B! }1, Windows 10; l* b1 [% S$ \. c) [- Z! {
2, Python 3.10.11
$ ^' K6 `& Q( i5 P# A# N5 F3, CUDA 12.1+ Y# T/ _# I0 A9 {4 c, e
4, 在python 3 中安装
& A' [& j8 O0 o6 [ Opip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
4 `; P# b! p3 R& E- |# @9 E. K$ G这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
& d. \$ d& d9 B/ E, U( S8 R% B5,pip install -U openai-whisper
; }( Z! \# v+ L" T) e这是向whisper 致敬,可以不装
$ K$ N/ |* r9 {4 N& d7 X% U* X6,pip install faster-whisper1 ?9 w+ _2 p3 s. d
----------------------------------------
2 v' e5 Y* \4 y; b. Z% E3 kwhisper 我用的命令行,faster-whisper 我用的是python。% ?+ f, x* P, _, T- r) |' d
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
# d5 H& E$ C) S: o. Q3 ]; _* e3 K& q z. ?) e T$ I
----------------------------------------
2 e8 J- N: k/ C& N3 h5 |( J" H" o% Y9 A& k+ R: t. a- s" f
from faster_whisper import WhisperModel
7 N) b( Z6 [ M- l- C {& E; J7 G# s* ]$ m( i: ~' q l/ G" N
model_size = "small"8 u! _& {* u6 k( ~6 k0 x
V( u" \# A. P% Q$ Z
model = WhisperModel(model_size, device="cuda", compute_type="int8")
5 o% z3 S' Y) i1 p9 d8 Z3 T) O: z; K/ u& G) Z
segments, info = model.transcribe(0 X* H5 ]2 y; `! b, \4 E5 ?
sourceFileName,
! o r1 W+ f! M6 N7 J) r beam_size=5, 6 F. Z/ p& Q5 a
language="en",
\+ S& P8 B8 m) Y, O" t4 c task="transcribe",
& i+ b' I) C. F& ?, O; d$ l* n" R word_timestamps=True, , z3 ~$ m, y( o3 y* m# F0 z
initial_prompt = "Hello, welcome to my lecture.")- |$ v/ |, y; o8 T6 D0 f. B5 U4 ?
5 d: ^ b" d1 u4 {
for segment in segments:
; k- W' j7 q/ W2 C print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))& o% c) o; a2 m
7 i+ S$ @ `2 e4 H
for word in segment.words:
! w" d4 K- f D
9 S( `8 u4 u! z7 ]4 P- R+ q, e+ `----------------------------------------
, z6 [( \1 s! y8 [7 h6 w
7 ^. U% Q7 q0 N( y代码说明:7 y5 U% x a8 S+ A( Q
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。$ N9 D* i4 N7 ^5 A$ v2 H
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
" @7 u1 L% U& U6 B7 k, C2,segment 本身是很粗糙的,做字幕勉强能用。- g) }: ~9 z6 o* F8 [2 d% n9 @. D
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
: h2 x0 d( X. K' P5 A! d' \4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
, d7 S( {5 {6 U比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
4 G/ r7 m. a0 W! w. r3 G5,model.transcribe 中参数说明:( h) \4 g( a9 E1 F |
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
2 y# r7 a$ b, m1 C. Z其中6 z* W6 u" c: p$ P2 \1 A5 O9 H
word_timestamps=True,
4 r z# c$ Z& I, k0 _" r保证了你能拿到 word,否则是拿不到的
' P, j% E- ~! X3 @& i initial_prompt = "Hello, welcome to my lecture.")+ w7 U) d8 C, @* u% _! U
保证能尽可能准确的断句 punctuation,但是不是决定性的。
5 E+ U" @ w/ q0 G0 b' ?; a& g. h其他参数可参考源文件:% h4 R; F& `) D( {6 o: X# P
https://github.com/guillaumekln/ ... isper/transcribe.py
7 n4 N" ] Q( h! U; R9 R152 def transcribe(4 R2 h+ u$ \! ?: r
从源文件你可以看到是支持中文的句号断句的。: z" o/ r" w8 ?. @3 m5 H
( d, G$ a8 ]" o: `1 [6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
* z/ w! ?. \1 S- Y7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。2 O3 s) e( T( J, Z
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
( |( c# w: K, \
3 x `2 t$ I. v- w; _, O5 i1 d % h9 Y0 `5 ]& [+ x
5 h# R- ^; s' P9 r' S
|
评分
-
查看全部评分
|