|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 + S9 h) J: A, [: f
8 A2 m. ]5 T* g5 _8 }. ]6 r8 j6 A$ |
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。& M3 g- }) U8 V4 W# L
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。% |$ g8 M6 C3 \- N& Y8 e. N( e% j
----------------------------------------& ?, |. L5 `6 |, t1 t& H
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
7 a! z3 @2 |* q0 T6 C6 \5 c P在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。7 w& J/ |2 M$ ?8 O/ n* ~7 }
----------------------------------------
; O3 {5 l' X Z0 Zhttps://github.com/guillaumekln/faster-whisper" b, W7 K/ c7 N$ D# D6 A
安装如下: k9 S, j9 m; ~/ `' ^ m
1, Windows 10% T# \$ ^* u) {% o& V% u/ A7 v b: L
2, Python 3.10.11
+ y' Z. |( ~; C/ W+ l3, CUDA 12.1
3 U ~9 Y8 D, r5 a: r, }; Z4, 在python 3 中安装
' A- k) |' H5 g* k8 @pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
6 \! p; {+ q' ]$ A, \" v J, |这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。. i. y3 U5 F T, C
5,pip install -U openai-whisper
9 _/ V% g4 E* n3 ]6 ^) W! y这是向whisper 致敬,可以不装 O3 m$ ~6 C, q+ D3 g9 O
6,pip install faster-whisper' e' e4 h' L+ P
----------------------------------------
* q3 H9 C2 g8 x4 Y) cwhisper 我用的命令行,faster-whisper 我用的是python。& q% Y( a/ x+ K7 E* ~
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
4 W( T- P4 e6 F
3 }. D1 d) A; o( F3 q----------------------------------------' R/ q6 R$ g/ K; @3 v9 Z: w# e
- p: U' m ^* b/ v9 ]& ?1 ]) Wfrom faster_whisper import WhisperModel
: Y- y( U6 a2 G5 [2 l4 S- l0 W1 Z/ y i9 A4 l% Q7 E' h6 |
model_size = "small"8 {8 |) e; M* L
0 P$ z3 E( b5 r& Cmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
9 L( t$ T; L( H
, F$ w' R( @2 j! ?segments, info = model.transcribe(7 F& |2 y% y: u2 H% a+ T4 z
sourceFileName, # ~6 L' V0 v1 {6 X
beam_size=5, 1 x. Q+ |: C* | o E% u) I
language="en", / W2 P( C9 H. A4 \
task="transcribe",
( l! f- I3 K% D2 |+ O' p2 | word_timestamps=True,
- K# B* P% z q initial_prompt = "Hello, welcome to my lecture.")6 G% X# e5 x0 C. y; n3 ~
. [7 S" c% ~9 T) Y* {for segment in segments:
& \ r2 {/ t' d5 ?( J; v" x, S print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
5 a' G# R2 Y3 Z2 x$ F! X4 m1 |# ~/ o4 z7 \0 v8 h# [/ V5 T
for word in segment.words:
' X D0 b5 {! v/ T2 }( [+ N
, O# {' t; h- ~' m( X. K# j: a, f----------------------------------------/ a M/ y0 x" C) I
/ i. `, s- F! y# m
代码说明:7 H' b- ^3 k! ]2 K, t
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
4 i- @4 C( @( K. i' [" ?7 o但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。+ ^% }0 A# T% E- R8 Q
2,segment 本身是很粗糙的,做字幕勉强能用。
4 E" s% D8 E! B2 V- w3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。5 B1 X' Q; J+ L2 _! L1 v/ `
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
* M4 D+ k+ [' R( K. A- X2 ?* z比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。4 ^) Z2 }+ _% P: N4 x0 a- O
5,model.transcribe 中参数说明:5 _' Y4 B. M: s; W. h
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
3 J% @! V' I9 E* ^' S. e其中
* z; P. ?, [8 J word_timestamps=True,
+ N- P/ A5 E/ T7 T. Q" I4 u保证了你能拿到 word,否则是拿不到的8 E0 L0 ?! B5 @9 N+ {) p
initial_prompt = "Hello, welcome to my lecture.")3 q& ^- ~9 c4 I0 w
保证能尽可能准确的断句 punctuation,但是不是决定性的。6 |% T. Z7 L& r, k+ L
其他参数可参考源文件:
, v, O- Z/ N2 R; Phttps://github.com/guillaumekln/ ... isper/transcribe.py' \4 D$ X1 E( f$ x; b9 h- n0 _0 ~
152 def transcribe(
* X6 U0 O6 v$ B9 q: f% Y从源文件你可以看到是支持中文的句号断句的。
6 F* C9 \; j x/ S" a. z/ V; @. E8 {) @2 C: E3 [
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。1 H5 ~8 D3 [4 ~& g
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。5 Y v$ n* ^1 N6 d& X, O, C
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。+ S, W2 T; T3 a" G
/ R2 T/ y! |, k' M* H9 c! `* ?, b, ?
- ^4 r& z3 B2 n2 w/ m
% W2 U& T4 ~, `" m% O5 v |
评分
-
查看全部评分
|