|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 & |5 @: ^& t8 x
# C9 h6 p k& s# ~, b0 t借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
3 n2 X2 Z6 ^. G效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
- S1 y& s, R( v0 U9 k7 D----------------------------------------- _/ F$ C- n1 g8 h+ O0 R
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
8 z) ~& `1 _% ~0 i在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。/ q8 T* f" m8 f( K. ]8 `) X
----------------------------------------2 O6 t9 ~2 V D! A1 A( U
https://github.com/guillaumekln/faster-whisper
* o" i0 k6 h5 L8 ?+ M) u' h安装如下:
/ J1 N7 O% P/ b6 o' ~1, Windows 10
, T3 N2 T9 |! y; X$ i& X2, Python 3.10.11
8 W% C, A" {. R/ h( {& F: K* Q3, CUDA 12.1
- Z9 U- z% P+ L8 M/ ^4, 在python 3 中安装9 ]# t( N$ d; x2 |& b
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1178 e- p5 B' Y# s. L; D' j" X! l
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
+ T/ Q( j9 [6 \: r @- r- q5 S" Q# N5,pip install -U openai-whisper% r4 m2 x: S! ~6 a3 _% e1 i/ y3 ]
这是向whisper 致敬,可以不装
# A5 G y/ z. ]6,pip install faster-whisper6 D9 N" L. v; O8 X p6 c! u0 z
----------------------------------------! j, ^4 x) |& b
whisper 我用的命令行,faster-whisper 我用的是python。
9 v8 v- U( x. e# A8 b下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
, \( j% h. R0 T g# N ~# N. G6 E) y, v3 I7 U0 q
----------------------------------------8 V) j) w3 ^6 s1 w4 Y1 \% w
+ q# o% V, S) m
from faster_whisper import WhisperModel% D7 Z0 `/ U. M9 _9 v/ l* d/ g
' ~4 M V/ T. B
model_size = "small"+ Y8 j& k$ Y- u& ~" X
! K1 g" U. D5 |; ?; [ w
model = WhisperModel(model_size, device="cuda", compute_type="int8")
! A- Z4 O4 C$ H0 { @$ V
6 m! l b, m: ^9 S( m# C. U/ Isegments, info = model.transcribe(
6 W( r8 M u/ y& Q& U; _6 c sourceFileName, 5 d6 B8 e; W0 ?
beam_size=5,
+ `" Q' X0 [5 i8 f2 e7 c% a4 D language="en",
; l. I5 ] ~4 f# z+ `& z task="transcribe",
- Q$ f3 N) I7 ~) Z ^: ]6 a word_timestamps=True, 6 s2 w5 m, O- s
initial_prompt = "Hello, welcome to my lecture.")
& ?2 y" u1 ~: [5 c8 v9 S' _+ ?8 N# ]; Z6 c
for segment in segments:
# [4 k) |1 X9 x0 ]5 }8 x print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))$ S3 l' H; c/ h4 i. t
! R1 ?/ s/ H/ \0 d
for word in segment.words:) H2 C" c0 N- T) {5 X/ O5 k* D
. W1 K" T6 R4 a' ?$ s8 b Z4 J----------------------------------------$ r" D) Q8 m9 a' J8 n) H3 A
9 L, o$ l3 r# z( j" j& ]. @代码说明:
1 \+ D# T6 g! S, ^1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。, @ f4 h2 Q" N) `$ O) K8 Q
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。5 f6 r. S. V8 m% E3 _
2,segment 本身是很粗糙的,做字幕勉强能用。
6 T% j! w( X8 v; X# _3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。4 t& @% c( d n n1 H
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中0 J) _/ V; A0 X. q* r
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
% E; ~: m; `* V9 b7 M* _; w5,model.transcribe 中参数说明:
- J, ~7 ]3 y. n: W, n+ `4 W你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数9 R% o1 n* d) m! V
其中1 n4 B1 ?! C- Y
word_timestamps=True,
2 [1 S+ p; k' T0 `保证了你能拿到 word,否则是拿不到的: b; k8 f, c* F5 M9 [3 ~) l
initial_prompt = "Hello, welcome to my lecture.")+ r E# N" J* i$ V, I3 @
保证能尽可能准确的断句 punctuation,但是不是决定性的。# E* t* V( ?- F9 a) ]
其他参数可参考源文件:
# O4 K0 Y& j5 ]3 J3 N2 dhttps://github.com/guillaumekln/ ... isper/transcribe.py
+ i& d* i( q' a" _6 r- h152 def transcribe(9 S! W2 [3 ^* u; m7 w
从源文件你可以看到是支持中文的句号断句的。0 E" u( l/ A$ K) K
1 S% y( C# |8 I# v3 @6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。) L6 H6 @8 {+ m7 v4 n
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
; @2 b& w* {' z; k( S8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。* @1 A$ w/ M' ?& @2 b% y
" j# Z2 Q3 |0 _
. r, s( n }0 g q, {
4 e; C2 f% L# {. `8 }4 j
|
评分
-
查看全部评分
|