爱吱声
标题:
faster-whisper 更快的语音到文字的识别 ASR
[打印本页]
作者:
nanimarcus
时间:
2023-6-4 02:10
标题:
faster-whisper 更快的语音到文字的识别 ASR
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
. Y4 _' u4 k% a% Q3 P# e$ E6 x7 ^
2 [* _% q. |/ o( C
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
8 n5 _, H% {; P1 X" {# ]7 Y
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
- c/ P! ]/ q {; Y( `; q" a1 I
----------------------------------------
8 }/ u! v) d1 E! A7 e
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
) ^8 i$ N/ g# D0 `) @9 i: i
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
" x& g* L$ x; z8 ~, z
----------------------------------------
+ @) F' Y- x) \% Z3 c
https://github.com/guillaumekln/faster-whisper
" h6 v" q2 f8 `& D; Y
安装如下:
7 p. B5 e7 G& d6 p4 k$ z5 x ?
1, Windows 10
- e. J/ A$ |% F" u
2, Python 3.10.11
+ K; h" J% C e
3, CUDA 12.1
; N- x6 W. m/ j& X: p& Y/ @0 h
4, 在python 3 中安装
, W+ o; M# N# y
pip install setuptools-rust torch torchvision torchaudio --extra-index-url
https://download.pytorch.org/whl/cu117
; p& K4 S# q% G( f7 s
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
: A0 a2 R3 A! _8 C; d! c
5,pip install -U openai-whisper
n# p, t6 r" N7 j Q, X w, w
这是向whisper 致敬,可以不装
+ P: E0 u2 o- _5 V
6,pip install faster-whisper
, @) Z7 N# o4 y) O4 H: K
----------------------------------------
- g1 M7 N; w/ B
whisper 我用的命令行,faster-whisper 我用的是python。
" P! l9 r2 U& B0 n/ l, ?# b8 \
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
; f$ d" c' V9 L5 a& a# z) I
! P( T9 F% J" b1 z& I3 S6 b
----------------------------------------
& h# n |# S! c- K8 e. H8 p
h/ z- l) U$ @$ r: ?1 Z$ i# F
from faster_whisper import WhisperModel
" b! s4 x" T% B0 h) O
6 R: p3 z5 u! A1 V7 o5 J/ w( p
model_size = "small"
* i$ M2 G5 A& c' ^# `0 \9 B+ o
6 Q5 N2 l. p' c1 s# G( y9 B5 H) w
model = WhisperModel(model_size, device="cuda", compute_type="int8")
- Q, Z0 R3 t2 _) o5 S2 o
& J0 p- ?* A0 P' w- t) P+ \
segments, info = model.transcribe(
4 |/ { V3 q7 H; E
sourceFileName,
7 T) \" p {) J+ k' l' m/ j0 Z$ w, C
beam_size=5,
9 J0 Q9 s4 B' x+ u; f
language="en",
2 t0 K3 l8 d! j4 t3 D0 |
task="transcribe",
3 \* u+ H1 ?# S n
word_timestamps=True,
/ a" ^* }( |& d
initial_prompt = "Hello, welcome to my lecture.")
' v+ w+ v# j/ Y4 a
' } l4 f. J, v$ l# {
for segment in segments:
% e; L) Y4 R6 f7 s/ z
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
2 |) c9 H) I' a* K- A
, N' d Y# ~, J% E% t1 Z& g5 s: }
for word in segment.words:
! ~3 _# ]- ^% X. O" D7 f3 r
1 J0 k! e1 |. R" {
----------------------------------------
/ r% I2 h+ c/ F" P5 ?' C; ^
! C% q2 w( B4 S9 x$ W" @
代码说明:
i( h' z& Y& q- e1 `" d
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
9 V0 x/ @& h- W# Q6 _
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
}4 Z- c( [! f1 m( G
2,segment 本身是很粗糙的,做字幕勉强能用。
- }: ^; U4 w; Q9 d
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
% k2 y" q+ |2 r8 s6 E9 q- |/ Y9 Z# z. q
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
9 @' u# r P r8 x
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
( Z, v+ ]2 z; o& f
5,model.transcribe 中参数说明:
# @! N, {9 l% k9 V( E
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
$ L+ d* N4 s4 k0 q
其中
6 y0 c! k5 A* }- f
word_timestamps=True,
! v5 \, |2 y9 m1 O2 x" Z8 r
保证了你能拿到 word,否则是拿不到的
/ H6 ?" A; @( \2 w3 M6 Y h
initial_prompt = "Hello, welcome to my lecture.")
* q) t5 j! p1 w
保证能尽可能准确的断句 punctuation,但是不是决定性的。
7 v' q) i: P' a) N
其他参数可参考源文件:
6 p& F8 y2 u" O1 r8 Y6 H f
https://github.com/guillaumekln/ ... isper/transcribe.py
& R' H0 c6 V2 H3 c U
152 def transcribe(
K& P; R5 ^9 I% y- @* ?
从源文件你可以看到是支持中文的句号断句的。
2 b, z2 o- Z" c: X4 f' r- ^9 C0 \( l
- [. |4 f/ ?/ y7 g
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
- u! a+ H4 T0 k
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
$ o* U0 w9 A$ o/ a" M5 V9 p+ e
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
8 O$ [0 @" ~1 Y3 u
% f2 a( L$ e! }) c# a/ A
P% W+ Z, s& a) Z" V+ b, B/ M
5 S* [' O: X$ M
作者:
nanimarcus
时间:
2023-6-4 11:53
多谢各位榜爷打赏。
欢迎光临 爱吱声 (http://www.aswetalk.net/bbs/)
Powered by Discuz! X3.2