【案例】4 k7 z; d O# b. W+ ^4 k
; H: P4 y3 d7 D3 u
GPT-4「变懒」bug被修复,价格暴降80%!OpenAI连更5款新模型,性能狂飙 新智元 2024-01-26 12:18 发表于北京
2 Z9 q, d. N6 ~ k9 m/ C新智元报道 编辑:编辑部 & Y( a$ g( z/ P3 i3 u& {$ v! K
【新智元导读】昨夜,OpenAI一口气连更5款新模型。GPT-4 Turbo变懒问题修复,代码生成能力史诗级加强。另外,多款模型价格大幅暴降。
/ Q3 G+ o2 L/ a6 ^& X$ j* c! y- ?7 y& K$ _
$ ?; b9 q* w9 _; p# ^
GPT-4又双叒叕变强了!
6 ]. ?* p3 o/ G) [* j9 |. `0 ?2 D( U
" R7 C+ F; ^( m 今天,OpenAI正式发布了更新版的GPT-4 Turbo——gpt-4-0125-preview。+ [+ G \# C" E( J c6 |
8 y" ^ r6 T4 C' i6 T4 z 不仅大幅改善了模型「偷懒」的情况,而且还极大地提升了代码生成的能力。
+ z6 ^, ]9 y2 [: M& d/ F% ?6 b; D) o0 J: \
( ~8 S9 m" ^6 P7 X
$ F5 T8 Z d3 I# {
与此同时,OpenAI还发布了一系列模型和API更新,总体来说就是「更强的性能,更低的价格」。" a/ U$ e" g+ j1 u, d) u
: `0 z; w8 Y9 M6 x! Q
- GPT-3.5 Turbo更新——gpt-3.5-turbo-0125。输入价格大降50%,输出价格下降25%。性能上也有升级。
6 A1 O+ J F1 X/ @; o' j. d" V/ F5 p% q# |1 u2 r% p
- 「迄今为止最强」的审核模型text-moderation-007,帮助开发者有效地识别有害文本。
0 x" U1 \9 n2 S- D. |- i9 c% E9 c$ m
# }, E' J- b7 f% n0 E 两个新一代embedding模型:! h, t4 Y$ F1 h3 H) n
5 r' m8 Z% J& w' V$ {8 `
- text-embedding-3-small,体积更小效率更高,价格直接砍到了原模型20%!支持512维和1536维两种大小。* u- d' i; [: p5 }; U% n& m
- text-embedding-3-large,性能相比之前模型大幅提升,高达3072维的嵌入向量,价格是小模型的6.5倍。! Q. x$ y4 q0 j7 I' v
最后,OpenAI还强调称,用户通过API传送的数据,都不会被用于训练新的模型。% w0 r5 a! M* p. \
$ i+ e$ Y! ?4 z/ J
% ], A+ u% W; S2 r k7 Y( u6 s1 r/ I4 C8 A8 x
GPT-4更强了,变懒bug修复 自从去年11月份开发者大会发布GPT-4-Turbo以来,超过70%的GPT-4 API用户已经转用了GPT-4-Turbo预览版,从而能够享受最新的知识戒指日期、更大的128k上下文窗口和更低的价格。. Z3 k$ _- O4 w, W
1 @3 w d0 s4 w/ q! Q6 L
最新更新的GPT-4-Turbo 预览模型——gpt-4-0125-preview在执行任务(如代码生成)方面比之前的预览版要更强,能够减少模型有可能出现的「偷懒」现象。/ X8 q; |; ~5 a: C# R" `
6 {( q5 O: h3 v5 B8 J 新模型还修复了一个影响非英文UTF-8生成的漏洞。
# ]. g5 {5 R+ t$ ]+ s 对于那些希望自动升级到最新GPT-4-Turbo预览版的用户,OpenAI还推出了一个新的模型名别名gpt-4-turbo-preview,它将始终指向最新的GPT-4-Turbo预览版模型。- ^; ~9 k2 d' v
, p' \& Y+ p) S. ~. n
在未来几个月内,OpenAI还会推出具备视觉功能的GPT-4-Turbo正式版。
4 r" G i; x5 T n9 c5 H
: s, N, L$ \# W' P. v/ P# G
: p9 K: H; T; a ?5 i GPT-3.5-Turbo喜迎「降价增效」 下周,OpenAI即将推出新版的GPT-3.5-Turbo,型号为gpt-3.5-turbo-0125。, |. D8 p, p3 u% I# h
. Y. d2 ]. d4 \+ o
在过去的一年里,OpenAI已经第三次下调GPT-3.5-Turbo的价格。4 o* s% w7 p+ T; m, C. V! y- y
4 B' Q1 P& T; h% K# G4 T2 j 新模型的输入价格下降了50%,现为0.0005美元/1k token;输出价格下降了 25%,现为0.0015美元/1k token。! f1 m/ d a0 l$ q, m% G8 i
此外,模型还进行了多项改进,比如提高了按要求格式响应的准确性,并修复了一个导致非英文语言函数调用出现文本编码问题的漏洞。
! H q7 q2 O$ x+ ^
, [( S4 p( V+ e6 m8 |: E2 p 在API中使用固定gpt-3.5-turbo模型名称的用户,将在这款新模型推出两周后,自动从gpt-3.5-turbo-0613升级至gpt-3.5-turbo-0125版本。
' t0 ~$ I1 R/ U, i+ C+ j# B, Y+ v, p9 M$ ?1 R" Z; f) j6 f u
+ @2 h; T) n- j; P1 l* P8 M* m5 i 全新嵌入模型2连发:性能大涨价格狂降 OpenAI推出了两款新的嵌入模型:体积更小、效率更高的text-embedding-3-small模型,以及更大、性能更强的text-embedding-3-large模型。& I- Y: U; q% x" O% P+ {( O, C
+ t J4 G+ Y) W/ W" ^! f
0 ]7 w s6 x v- j
8 w5 Y1 }$ A0 Q% h" r 所谓嵌入(Embedding),就是将内容(如文字或代码)中的概念转化为一串数字序列。
: S% w$ H2 C4 @ 通过这种方式,机器学习模型和其他算法可以轻松理解不同内容之间的关系,执行聚类、检索等操作。
) S' F8 ^8 p, F9 z5 b
n8 r6 }! r: \1 M9 w 嵌入技术为 ChatGPT 和 Assistants API 中的知识检索功能,以及许多检索增强生成([color=var(--weui-LINK)][url=]RAG[/url])开发工具提供了强大动力。
, r- _1 O/ N$ O! k- [" p8 f 「小」文本嵌入模型:text-embedding-3-smalltext-embedding-3-small是OpenAI的新型高效嵌入模型,与2022年12月推出的前代产品text-embedding-ada-002相比,性能有了大幅提升。+ b, Y! } K& i/ A: R* R W2 }
! E* g5 D1 m8 s) Y5 b
/ ?; ` `7 {$ n* y- w5 G: M - 性能更强
4 r1 l' I! P( F9 [" t+ \
# D* x3 o) Z. m 在多语言检索(MIRACL)的常用基准测试中,text-embedding-3-small的平均得分从31.4%提高到44.0%,在英语任务(MTEB)的常用基准测试中,平均得分从61.0%提高到 62.3%。; g4 c& ]- z1 ^! H- ]
+ L7 F2 x' A W6 ]+ R3 H, G
% P3 B) N3 M' C& M; Y
- 价格实惠
9 I* D# `, A5 s p- c( m# s" k' P0 N
text-embedding-3-small远比OpenAI之前的text-embedding-ada-002模型效率高,因此价格也大幅降低了5倍,从每千token的0.0001美元降至0.00002美元。% c3 c$ _2 D) m h5 a7 C
& G5 ~# S3 \* l: A3 Y. v OpenAI不会停用text-embedding-ada-002,尽管OpenAI更推荐用户使用新模型,客户仍可选择继续使用上一代产品。% ^; d$ l+ V" m; Z5 R! R$ F: F
" N. ~: v3 b1 o5 S4 y
8 C* D# ^: K; x% ^( R9 y3 {
「大」文本嵌入模型:text-embedding-3-large( @7 W; b" Q+ `- S- f
, o8 W$ r- m& W5 b8 F6 L& o text-embedding-3-large是OpenAI的新一代大型嵌入模型,能够生成高达3072维的嵌入向量。
% P' b! L& z6 T( h5 f f text-embedding-3-large是OpenAI目前性能最强的模型——
. x3 a! V4 t7 w/ A" _" I$ L+ ?$ q% u9 ?' [
与text-embedding-ada-002相比,它在MIRACL上的平均得分从31.4%提升至54.9%,在MTEB上的平均得分从61.0%提升至 64.6%。
% n1 u* H0 K& \( V+ B
( H% h8 u4 B) V5 B# C& A
8 _0 u8 O2 U, |- B4 v1 @* I4 D( t$ H
text-embedding-3-large的价格定为0.00013美元/1k token。
3 }: d" S+ `4 J9 q* X" v8 o9 ]
. U; Q$ y* d6 _- S# c i
6 d3 \- L& o( _) @: N) ]. p$ @
6 h* @* K7 S G" }* v+ J
+ u6 M' [+ }+ G4 l5 u 灵活调整嵌入向量
: O7 H, b$ ? ^9 [' U% {
" b1 K% t) [) Y' r 相比于小型嵌入,大型嵌入的存储和检索,如放置于向量存储库中,往往需要更高的成本,也消耗更多的计算资源、内存和存储空间。. v" {% z" Q* y9 m% T
! v B% T5 {/ d8 v
OpenAI的两款新嵌入模型均采用了一种特殊的训练技术,使得开发者可以在嵌入的使用成本和性能之间做出权衡。& l+ y; K' w7 i! p! R {/ L
具体来说,开发者可以通过设定dimensions API参数来有效缩短嵌入向量的长度(也就是去掉数列末端的一些数字),而这样做不会影响嵌入向量代表概念的核心特性。5 p$ P( m& ^7 }5 B" H) p
4 Z& [' S) r! g. T6 H
例如,在MTEB基准测试中,即使将text-embedding-3-large嵌入向量的长度缩减到 256,它的性能仍然超过了长度为1536的未经缩减的text-embedding-ada-002嵌入向量。* j8 N3 l" _: M6 V E
这种做法极大地增加了使用上的灵活性。1 z% \! ]1 I/ y Y, S
! T- T3 {0 f' N& u) r- m4 o* s
比如说,当开发者需要使用一个只支持最大1024维度嵌入向量的向量数据存储时,可以选择OpenAI性能最佳的嵌入模型text-embedding-3-large,并通过设置dimensions API参数为1024,从而将原本3072维的嵌入向量缩减下来,以较小的向量尺寸为代价换取了准确度。2 r& Y: X* s- L' e5 C! ~8 y
6 z- t7 d, Q. a% ~0 t7 ~4 r! K( l, M; J+ w: V5 U2 k
# L$ Q( v6 A! Y8 o ?. ^$ d9 h1 }
迄今最强的内容审核模型 OpenAI提供的免费内容审核API可以帮助开发者识别可能有害的文本。( `% S0 X9 u! J1 b6 n% f
: j" E2 N p8 `5 q( v/ p7 c
作为OpenAI持续安全工作的一部分,OpenAI发布了迄今为止最强大的内容审核模型text-moderation-007。$ K/ o1 P! {+ A8 J
$ v, d: n3 T8 k 此前的text-moderation-latest和text-moderation-stable,也将重新指向这个新模型。
5 P, y( S. a; ^" q. I0 V5 P1 u9 }# N. i& b W: r+ V
4 U3 ]2 ?4 L6 X: A6 q/ s# X5 G
API后台更新,更好的API密钥管理 OpenAI正在推出两项重要的平台升级,旨在为开发者提供对他们的API使用情况更清晰的洞察,并加强对API密钥的管理。9 A$ {8 }* `/ l- |- }
. _9 [1 J, h% V3 R
首先,开发者可以直接在API密钥页面设置不同的密钥权限。9 E; Q; }4 p- H1 V
, W! t+ x8 f- Q- E
举个例子,用户可以为一个密钥配置只读权限,以便用于内部的跟踪数据面板,或者设置为仅限访问某些特定的接口。7 T7 ?. u5 U! N0 r
其次,一旦开启了密钥使用跟踪功能,使用仪表盘和数据导出功能就能够提供基于每个API 密钥的详细使用指标。这样一来,只需为不同的功能、团队、产品或项目分配独立的 API 密钥,就可以轻松地监控到各自的使用情况。
- b5 L7 v. |. `- k, b0 \- Y
4 a0 }7 T8 M- n 在接下来的几个月里,OpenAI计划为开发者提供更多便利,让他们能够更好地监控 API 使用情况并管理 API 密钥,这一点对于大型组织来说尤其重要。6 {: s( X9 s" ~/ B
+ O: O/ l1 ~6 S$ F y& N- D
5 i. W5 K: p; n; ]& F
, v9 [8 A! p* A3 {" t$ W* U$ I1 w) ~0 {/ h
# J! A& \" {& |+ V! `4 z- O
5 K, ?6 ] M8 Q0 [7 p4 |; S2 P+ i- ?* r- `
|