【案例】
1 X( @, `& S' a3 S* F/ \; s8 @3 v& F1 h/ w* S
GPT-4「变懒」bug被修复,价格暴降80%!OpenAI连更5款新模型,性能狂飙 新智元 2024-01-26 12:18 发表于北京 8 U/ W5 O# B# B5 O# N3 A3 @
新智元报道 编辑:编辑部
5 f c$ R1 L3 p% `- C 【新智元导读】昨夜,OpenAI一口气连更5款新模型。GPT-4 Turbo变懒问题修复,代码生成能力史诗级加强。另外,多款模型价格大幅暴降。8 x8 \$ F$ o$ Y
; A/ ~; u% w, o
% _) Y3 D8 U. K. K! J
GPT-4又双叒叕变强了!( H! r$ Q) m S2 G- x% b4 U0 D' @8 T
; @+ d7 T0 \8 _( J 今天,OpenAI正式发布了更新版的GPT-4 Turbo——gpt-4-0125-preview。
' \& t E2 J3 o, x, d: Q C( ~8 a, o
不仅大幅改善了模型「偷懒」的情况,而且还极大地提升了代码生成的能力。
6 G! `, Z8 i% z( v
6 q0 Y* d! M4 v# n
1 ~2 c0 E0 e; n* m' w$ U) O5 L, b# T7 H0 p6 N
与此同时,OpenAI还发布了一系列模型和API更新,总体来说就是「更强的性能,更低的价格」。0 X G) x+ p( N' Y* Q
7 m- O5 f @7 n. v8 A
- GPT-3.5 Turbo更新——gpt-3.5-turbo-0125。输入价格大降50%,输出价格下降25%。性能上也有升级。
- S/ c3 h$ t o1 o) ?8 W Q4 _! u( Q0 s- d: ^% T2 @. }
- 「迄今为止最强」的审核模型text-moderation-007,帮助开发者有效地识别有害文本。/ s/ F/ @, g: D `
) l3 e3 k- E$ ~
两个新一代embedding模型:" ?" m9 a6 ]- ]
! Y: j) M- W _7 E$ G0 m
- text-embedding-3-small,体积更小效率更高,价格直接砍到了原模型20%!支持512维和1536维两种大小。) ]. R, X% |7 A+ S) L R6 Q Y4 {3 [ T
- text-embedding-3-large,性能相比之前模型大幅提升,高达3072维的嵌入向量,价格是小模型的6.5倍。: q+ O3 ^" q% C5 ]5 `" U6 c
最后,OpenAI还强调称,用户通过API传送的数据,都不会被用于训练新的模型。7 O7 ~/ M# R( l# u% o
4 @: j2 X H: P- A
* W9 N2 s9 O( a- K1 R. B# Z0 a
; e+ Q: d' c/ S# |
GPT-4更强了,变懒bug修复 自从去年11月份开发者大会发布GPT-4-Turbo以来,超过70%的GPT-4 API用户已经转用了GPT-4-Turbo预览版,从而能够享受最新的知识戒指日期、更大的128k上下文窗口和更低的价格。
$ H& {& K( R% J! M! C: e! W* g, |: u7 i
最新更新的GPT-4-Turbo 预览模型——gpt-4-0125-preview在执行任务(如代码生成)方面比之前的预览版要更强,能够减少模型有可能出现的「偷懒」现象。8 M$ Y0 `, X& u( P4 S8 D
: j& L0 r* _6 g; e- M6 n+ o5 L" i
新模型还修复了一个影响非英文UTF-8生成的漏洞。; \8 T, T; [3 ~( _
对于那些希望自动升级到最新GPT-4-Turbo预览版的用户,OpenAI还推出了一个新的模型名别名gpt-4-turbo-preview,它将始终指向最新的GPT-4-Turbo预览版模型。
& h7 e/ _$ ]2 \/ s& v0 u2 |9 S5 _/ S! q
在未来几个月内,OpenAI还会推出具备视觉功能的GPT-4-Turbo正式版。
4 ]5 s6 o4 R, ~& C. i
8 l3 {# l% O+ y5 T2 ]2 P4 Z. ~) ~+ y7 R- ]
GPT-3.5-Turbo喜迎「降价增效」 下周,OpenAI即将推出新版的GPT-3.5-Turbo,型号为gpt-3.5-turbo-0125。
6 d4 o0 s8 c' x
0 ?! x- j% I) | w, x8 q2 m! r 在过去的一年里,OpenAI已经第三次下调GPT-3.5-Turbo的价格。6 ?, ]4 I( h4 ^( T
+ E$ w" [$ d3 h7 ?* S; Z. W 新模型的输入价格下降了50%,现为0.0005美元/1k token;输出价格下降了 25%,现为0.0015美元/1k token。
+ _* f+ S7 E% q% n+ ^4 u 此外,模型还进行了多项改进,比如提高了按要求格式响应的准确性,并修复了一个导致非英文语言函数调用出现文本编码问题的漏洞。
) m9 V% @3 W) o8 N: |6 o; R9 k/ X
在API中使用固定gpt-3.5-turbo模型名称的用户,将在这款新模型推出两周后,自动从gpt-3.5-turbo-0613升级至gpt-3.5-turbo-0125版本。, O3 o( T3 i3 V+ O! r% F- P
) k; i9 v( J5 G m5 H S& a
9 J8 M3 ~# `: E' e( y 全新嵌入模型2连发:性能大涨价格狂降 OpenAI推出了两款新的嵌入模型:体积更小、效率更高的text-embedding-3-small模型,以及更大、性能更强的text-embedding-3-large模型。
" j8 ~& G! n- E) B6 b1 g! t1 T8 t( W6 L/ {6 ? _) a
0 ^2 J. J/ j! k s
b; [6 A: [$ }, I' ?& h9 D 所谓嵌入(Embedding),就是将内容(如文字或代码)中的概念转化为一串数字序列。2 T [1 T) k4 k- f6 W2 ?
通过这种方式,机器学习模型和其他算法可以轻松理解不同内容之间的关系,执行聚类、检索等操作。
: r! Z0 g5 X- }- Z& M
8 h! j+ n$ Q5 |" W) M8 z" s- f 嵌入技术为 ChatGPT 和 Assistants API 中的知识检索功能,以及许多检索增强生成([color=var(--weui-LINK)][url=]RAG[/url])开发工具提供了强大动力。5 h6 M: k; y5 a5 t4 `7 d* w6 o. Y& @
「小」文本嵌入模型:text-embedding-3-smalltext-embedding-3-small是OpenAI的新型高效嵌入模型,与2022年12月推出的前代产品text-embedding-ada-002相比,性能有了大幅提升。
9 Z/ K: V3 }$ T( A. Y# T4 z; }3 B* j) Z6 k/ ?
0 J. ~& `& @ D - 性能更强. x3 q/ f N/ ~- ?0 Y5 S6 F
1 P9 B% C9 V! H- c) d! J* r
在多语言检索(MIRACL)的常用基准测试中,text-embedding-3-small的平均得分从31.4%提高到44.0%,在英语任务(MTEB)的常用基准测试中,平均得分从61.0%提高到 62.3%。% h0 w8 l% Q/ M8 |( R1 S, q* Y
4 j+ M5 O! A1 g& d) P, i! }6 ^
# n. L1 l1 ^* J- u- N8 O) o4 K - 价格实惠$ j, E8 }% d- d0 A/ k6 U0 `
; C& ^) x2 \' L& A) M# I/ j
text-embedding-3-small远比OpenAI之前的text-embedding-ada-002模型效率高,因此价格也大幅降低了5倍,从每千token的0.0001美元降至0.00002美元。 M4 F8 q# ^9 U1 L' b. k
' k5 [# m# J7 _% G' t2 F! r OpenAI不会停用text-embedding-ada-002,尽管OpenAI更推荐用户使用新模型,客户仍可选择继续使用上一代产品。1 g& \6 _5 @9 X) w1 G0 s6 n
7 {5 M) D3 L# r b9 w3 ~- c
! ?- S8 t3 a Q. y! d/ R「大」文本嵌入模型:text-embedding-3-large/ Y5 E/ ^" @. l# L* U
% g8 p: \! w- u# p, @; c% l
text-embedding-3-large是OpenAI的新一代大型嵌入模型,能够生成高达3072维的嵌入向量。9 E8 V' V6 e5 v* C
text-embedding-3-large是OpenAI目前性能最强的模型——- n# B' N4 ]# ~2 e, R
# i' D, N' I+ h9 K 与text-embedding-ada-002相比,它在MIRACL上的平均得分从31.4%提升至54.9%,在MTEB上的平均得分从61.0%提升至 64.6%。
- W3 |2 m, Z- ^
' N- R, k. \- k' t
# b2 |8 M% G0 s; j2 q( b% S4 {8 c' X- s/ u
text-embedding-3-large的价格定为0.00013美元/1k token。% t" J( h+ i7 E( _/ J7 l3 Z- p ~
; J& S* r& m% M' ^8 Y$ Z4 B
4 f4 I. B- r5 c3 b4 \ n3 {, y
3 \+ _4 c- n, `; T; w' E3 n9 m
灵活调整嵌入向量
3 k1 E, }+ K9 R7 R: s
3 M% m1 K, R( h8 y; ^" } T 相比于小型嵌入,大型嵌入的存储和检索,如放置于向量存储库中,往往需要更高的成本,也消耗更多的计算资源、内存和存储空间。
8 b( r9 M( M) [6 w/ J$ d z
% Y9 c# M( i: J OpenAI的两款新嵌入模型均采用了一种特殊的训练技术,使得开发者可以在嵌入的使用成本和性能之间做出权衡。
% \9 o' H: ~# }3 r& V1 g 具体来说,开发者可以通过设定dimensions API参数来有效缩短嵌入向量的长度(也就是去掉数列末端的一些数字),而这样做不会影响嵌入向量代表概念的核心特性。7 `3 z6 f# F, r
/ r( e4 l* t* r W4 d1 T- X 例如,在MTEB基准测试中,即使将text-embedding-3-large嵌入向量的长度缩减到 256,它的性能仍然超过了长度为1536的未经缩减的text-embedding-ada-002嵌入向量。
* o& E9 [; d; k* `' S 这种做法极大地增加了使用上的灵活性。1 e" j! H- N, g& I7 p
/ r. P( B% P; t$ k$ Z
比如说,当开发者需要使用一个只支持最大1024维度嵌入向量的向量数据存储时,可以选择OpenAI性能最佳的嵌入模型text-embedding-3-large,并通过设置dimensions API参数为1024,从而将原本3072维的嵌入向量缩减下来,以较小的向量尺寸为代价换取了准确度。3 a+ a5 ~0 H* z8 F. c
6 }! @) V& L) ?% V6 {7 U4 E1 @& H* G
" ^$ ?, A# @& c; t! n: T; M
% @$ j$ U# {- O$ ^8 G+ _6 W M 迄今最强的内容审核模型 OpenAI提供的免费内容审核API可以帮助开发者识别可能有害的文本。- w* @* g; J0 N5 ]
$ @+ ?3 g0 r9 W h
作为OpenAI持续安全工作的一部分,OpenAI发布了迄今为止最强大的内容审核模型text-moderation-007。! _0 M$ l* h p1 Y- _) s$ p2 T
6 X; D2 {% E( h Q
此前的text-moderation-latest和text-moderation-stable,也将重新指向这个新模型。1 Z! y& t5 l0 B9 L
2 Z% u' Q4 w0 y; S5 M ?" Z
/ ^. b# `& X* L
API后台更新,更好的API密钥管理 OpenAI正在推出两项重要的平台升级,旨在为开发者提供对他们的API使用情况更清晰的洞察,并加强对API密钥的管理。% Y7 L$ X- w/ ^( z. u2 S. l4 \
* \! d8 c, L( \1 ~8 F
首先,开发者可以直接在API密钥页面设置不同的密钥权限。
' X) ]- T3 j: ?
7 L6 A4 U* G# e: g' ]4 }# f" W- ? 举个例子,用户可以为一个密钥配置只读权限,以便用于内部的跟踪数据面板,或者设置为仅限访问某些特定的接口。! y9 }$ B6 m$ ]8 [4 ~
其次,一旦开启了密钥使用跟踪功能,使用仪表盘和数据导出功能就能够提供基于每个API 密钥的详细使用指标。这样一来,只需为不同的功能、团队、产品或项目分配独立的 API 密钥,就可以轻松地监控到各自的使用情况。 v M2 s+ d/ h1 S7 \# @
2 A+ k# e! v! Q& U
在接下来的几个月里,OpenAI计划为开发者提供更多便利,让他们能够更好地监控 API 使用情况并管理 API 密钥,这一点对于大型组织来说尤其重要。9 x0 p, f' }+ j# @
( J1 O3 O& f" h( w' h/ _
1 e) D B+ u a: T+ S
( A' @ ?4 Y9 b; S: L/ ]- q
3 Q7 z, ^+ }% F+ T$ O- U/ V- I+ y ' Z _, `6 E! h+ E+ X
1 [6 L& e$ I b# x5 e
7 ], w. n7 j7 O3 ], X R |