|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 6 s# w3 p6 o7 c9 M0 c7 m& T
3 o2 _3 }( X+ e! t6 X
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。( b8 A' N: y8 l$ f/ j
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
, E! N: p( P5 [8 Y( Z0 _$ @----------------------------------------
$ G: \5 H+ }: T" m1 H* |显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
+ N0 j' v) V% y3 M! ~. _在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。) s, o" u$ V( W$ g
----------------------------------------+ j) W, m( }" Y6 b
https://github.com/guillaumekln/faster-whisper
. y2 A6 U4 a; t& j+ _2 J安装如下:
0 J9 X+ x5 D% [: m9 B5 |; c. Q( S1, Windows 10+ W# [0 n0 G4 n- @; J3 n: j
2, Python 3.10.113 r3 U/ b4 d e- `( {8 B
3, CUDA 12.1
* s* M0 B- d9 t' S4, 在python 3 中安装
5 \& R% f5 G ]pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
" P t; N% Q, K- z0 a这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。( X1 F( c2 N6 W- a& M) i; H
5,pip install -U openai-whisper8 d- X& K3 @9 X$ V. [ y
这是向whisper 致敬,可以不装( e8 X/ Z" ?( p# x+ V3 I) B' D. P
6,pip install faster-whisper0 {( P" e" \6 L' l
----------------------------------------
+ F3 K2 e. k. e- k9 i. X) hwhisper 我用的命令行,faster-whisper 我用的是python。4 U- u# Q0 ^( d8 ?& I
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
+ n- I2 z9 e0 g% Q
, [* A# }9 E5 @( d. G; I% Y----------------------------------------
" Q5 p' I% k, F6 o: u9 x% w& g% y, W% `
from faster_whisper import WhisperModel' D+ ?* Y4 H3 a- C4 ?' O- {2 q
/ x0 ]. @( L- C; p* r
model_size = "small"
) R9 I9 r4 |9 H; k% s+ `5 z$ [
2 l5 C) L5 R7 ?5 [. T. Nmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
0 K6 a4 S4 e( M! ^2 R* s' e1 a7 R L6 m4 u: u( V' ]
segments, info = model.transcribe(7 U/ n- B+ i$ t0 D1 K
sourceFileName,
" u0 u% u* u5 [! s$ a- F beam_size=5,
+ [9 v& F6 q5 ^4 Z7 C language="en", / b; D3 ^, f2 a) }: H; `
task="transcribe",
- l; L+ g6 c1 V word_timestamps=True, . S1 i w; L/ o: O- Y9 z- k) T
initial_prompt = "Hello, welcome to my lecture.")
. s6 r- k+ S" }- X( F" _ [
& }9 J5 K% y' u) N# Bfor segment in segments:
9 x- n- @1 J/ z, z print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
# c( S$ Y& S( o6 b' i. h
: X+ B' U; o3 W) V/ n for word in segment.words:2 N7 f5 `; w6 q& r/ _+ `" B
( ^* m% l0 |! R% w& w$ i; n; O* _$ O* r
----------------------------------------, u) S, ] k( j
" b; w# e8 \8 g4 m& M代码说明:& j) P, W- @" D+ B% C
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。3 [5 t! B) P# G3 `5 a: F( ^ u
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。, |! M3 q* d _
2,segment 本身是很粗糙的,做字幕勉强能用。
: ^9 O; U& z4 h6 L4 D8 W: N o/ t" v) N3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。$ I6 _, s* {& |- J
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中1 i' z7 O t; Q+ k6 S* O" F
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。& M3 i, R! Z8 ^) C
5,model.transcribe 中参数说明:8 W, V9 e& h7 f2 x) G" D* W3 Q/ B2 ~
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
8 k; d8 @, n, O' Q0 r" u. {+ M其中) X8 V* g2 {; p: D5 m( u
word_timestamps=True,
9 C. q5 |. e, P& \! q1 p' m保证了你能拿到 word,否则是拿不到的* |% L: C# E7 }( i! H. g
initial_prompt = "Hello, welcome to my lecture.")7 t1 Q- z* @, T9 j2 Q2 e- j" P; G
保证能尽可能准确的断句 punctuation,但是不是决定性的。
! a% r* p0 Z- E- C( p4 X; e其他参数可参考源文件:2 }" Z+ y! y% q& X
https://github.com/guillaumekln/ ... isper/transcribe.py
* p* X( [/ Z+ X6 ^3 t1 [# G0 ^152 def transcribe(9 J6 j" ?& i+ L \% T7 X+ ?9 |
从源文件你可以看到是支持中文的句号断句的。% F% J, p7 G: S$ y' d7 u5 }; I5 k
9 ~- k: |5 a/ B3 d4 A0 n
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。# [8 ~' s& I. L3 ?
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
4 ~ z0 }: c) c/ g- V p8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。( x2 l# @! z. A4 M" c
) z9 x$ W, O! a0 ^
! }7 D8 H" z4 h& n1 m8 e
1 T9 }0 l( y9 K8 r% G' C |
评分
-
查看全部评分
|