MJJ出征
9.31K subscribers
6.67K photos
3.91K videos
37 files
7.91K links
Download Telegram
你谷歌Bard来了

MJJ快冲(小号也冲)搞不好又是黄牛的天下🤣

无痕迹非国区代理
快快加入等候名单

使用美国IP一次性过,建议选非洛杉矶常用节点都能一次性过。有多少个Gmail就全都加进去。别嫌弃🤣

新发现:手机端放宽了Gmail注册不需要电话流程🤩

已知部分地区套WARP也可以申请过预计审查机制和OpenAI类似
暂不支持 workspace 付费用户🌚

https://bard.google.com/
#GPT #Google_AI #Bard
5👍2❤‍🔥1🔥1🎉1🍾1
如果2FA没有备份那就真没有

只能看对应商户只否有申述找回功能
有强迫症最好做冷热备份。避免出事。刚好近期更新了账号备份功能,以后就可以像便签那样恢复了(也不安全目前还未加密,本地还是可以抓取)
https://hostloc.com/thread-1164499-1-1.html

2FA只是一道登陆屏障,2步验证。并不代表安全可靠的密码。你的密码和Cookies被盗了2FA也是无济于事
#Google #2FA
Google Authenticator Apple store
Google Authenticator play 安卓商店
Chrome Firefox Edge Safari适配的2FA(可同账号一起备份)
2
Forwarded from Garyの梦呓 (Gary です)
Google 的文本 -> 音乐生成模型 MusicLLM 可以预约惹

https://aitestkitchen.withgoogle.com/experiments/music-lm

可能不会发邮件,可以再次登录网站康康
———
有没有试用了d群友说说咋样👀
#AI #Google #Text2Music
🐳5🤩1
Forwarded from Solidot
Bard 改名 Gemini

2024-02-09 00:07 by 通往宇宙之门

搜索巨人热衷于改名,现在它的生成式 AI 聊天机器人从 Bard 改名为 Gemini。相比 OpenAI 的 ChatGPT,Gemini 和 Bard 一样都不是那么容易与 AI 联系起来。相比 OpenAI 的免费版 GPT-3.5 和付费版 GPT-4(或 ChatGPT 和 ChatGPT Plus),Gemini 的付费版叫 Gemini Advanced,用户可以访问 Pro 1.0 和 Ultra 1.0——其中 Ultra 1.0 是类似 GPT-4 的大模型的首个版本,而 Pro 1.0 是类似 GPT-3.5 的规模较小的模型的首个版本。

https://blog.google/products/gemini/bard-gemini-advanced-app/


#Google
研究人员发现土卫六(Titan)上的波浪活动可能足以侵蚀湖泊和海洋的海岸线。麻省理工学院(MIT)的地质学家通过模拟显示,波浪是土卫六海岸线形态变化的主要原因。虽然这些结果尚未得到直接观测的证实,但他们指出波浪是最可能的侵蚀机制。该研究有助于了解土卫六的气候和风力,并可能对地球海岸线管理提供新的见解。


https://phys.org/news/2024-06-titan-strong-erode-coastlines-lakes.html#google_vignette
🔥1
Forwarded from Solidot
Google TurboQuant AI 压缩算法大幅减少大模型内存使用

2026-03-29 19:05 by 人猿泰山之英雄归来

Google 研究院发布了压缩算法 TurboQuant,能在大幅减少大模型内存占用的同时提高速度和维持精度。TurboQuant 旨在减小键值缓存的大小,被称为是储存重要信息减少再计算的“数字查找表(digital cheat sheet)”。大模型并不理解任何东西,它通过映射词元文本语义的向量去模拟对事物的理解。大模型的向量通常使用 XYZ 坐标进行编码,而实现 TurboQuant 压缩的系统将向量转换为笛卡尔坐标系的极坐标,向量被简化为两类信息:半径(核心数据强度)和方向(数据含义)。如果使用 XYZ 坐标编码向量,那么特定位置可以编码为“向东走 3 个街区,向北走 4 个街区”,采用笛卡尔坐标编码向量,那么同样的信息编码为“沿 37 度方向走 5 个街区” ,简化了空间节省了计算。Google 的早期测试显示,TurboQuant 在部分测试中实现了 8 倍的性能提升,内存占用减少到原来的六分之一,同时质量没有损失。实现 TurboQuant 算法将有助于降低 AI 模型的运行成本和内存占用,但也可能推动更复杂模型的出现,因此对将降低内存价格可能没有什么效果。

https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/
https://arxiv.org/abs/2504.19874

#Google
4👏2