使用 shuf 来打乱一个文件中的行或是选择文件中一个随机的行。

【搜索客社区日报】第2199期 (2026-03-19)

社区日报Se7en 发表了文章 • 0 个评论 • 31 次浏览 • 2 小时前 • 来自相关话题

1. 详细解读:独乐乐不如众乐乐,HiClaw 多 Agent 协同操作系统
https://mp.weixin.qq.com/s/VqB ... e%3D1
2. vLLM Semantic Router v0.2 Athena 发布:从模型焕新到 ClawOS,迈向系统级智
https://mp.weixin.qq.com/s/9CtX4KODxX456Idr2JxchA
3. 构建 Claude Code 的经验教训:我们如何使用 Skill(需要梯子)
https://x.com/trq212/status/20 ... %3D46

编辑:Se7en
更多资讯:http://news.searchkit.cn

.NET 11 Preview 2 Brings Performance Gains, Improved Mapping, and Native OpenTelemetry Support

AI 搜索industry_watcher 发表了文章 • 0 个评论 • 51 次浏览 • 5 小时前 • 来自相关话题

.NET 11 Preview 2 Brings Performance Gains, Improved Mapping, and Native OpenTelemetry Support


原文标题: .NET 11 Preview 2 Brings Performance Gains, Improved Mapping, and Native OpenTelemetry Support
来源: InfoQ | 分类: news
原文链接: [.NET 11 Preview 2 Brings Performance Gains, Improved Mapping, and Native OpenTelemetry Support](https://www.infoq.com/news/202 ... global)

---

📰 中文摘要


.NET 11 Preview 2 Brings Performance Gains, Improved Mapping, and Native OpenTelemetry Support



.NET





.NET 11 Preview 2 Brings Performance Gains, Improved Mapping, and Native OpenTelemetry Support

Mar 19, 2026

2

Listen to this article -  0:00

Audio ready to play

0:00

0:00

Normal1.25x1.5x

Like

Last week, Microsoft released the [second preview of .NET 11](https://devblogs.microsoft.com ... iew-2/), bringing a wide range of improvements ...

---

🔍 内容解读


段落 1


.NET 11 Preview 2 Brings Performance Gains, Improved Mapping, and Native OpenTelemetry Support

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 2


.NET 11 Preview 2 Brings Performance Gains, Improved Mapping, and Native OpenTelemetry Support

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 3


Last week, Microsoft released the [second preview of .NET 11](https://devblogs.microsoft.com ... iew-2/), bringing a wide range of improvements across its development platform. As reported, the release covers updates to the runtime, SDK, libraries, ASP.NET Core, Blazor, .NET MAUI, F#, and more. The preview is available now, and as stated, it represents a significant step forward in the platform's ongoing development cycle.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 4


A new dotnet [new webworker](https://github.com/dotnet/core ... mplate) project template has also been introduced, allowing Blazor WebAssembly applications to offload heavy computations to a Web Worker without blocking the UI thread, keeping applications responsive during demanding operations.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 5


[Kestrel's HTTP/1.1](https://github.com/dotnet/core ... ements) request parser has been reworked to avoid throwing exceptions on malformed requests. As stated, throughput improvements of 20 to 40 percent have been reported in high invalid-traffic scenarios such as port scanning or misconfigured clients.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 6


The Map control in .[NET MAUI](https://github.com/dotnet/core ... aui.md) has received significant attention in this preview. Developers can now define map coordinates directly in XAML using a simplified syntax, removing the need for verbose markup that was previously required. A new Map.Region bindable property also allows developers to set the map's initial region declaratively.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 7


Map elements such as polygons, polylines, and circles now support visibility toggling and draw-order control through new IsVisible and ZIndex properties, enabling more dynamic and interactive map overlays. Click events on the map elements are also now supported on both Android and iOS, opening the door for richer user interaction without additional workarounds.

💡 行业趋势:这反映了当前技术发展的前沿方向,值得持续关注其后续进展。

---

段落 8


Binding performance has also improved considerably in .NET MAUI. TypedBinding and [SourceGeneratedBinding](https://github.com/dotnet/core ... ements) are reported to be approximately 29 percent faster with 50 percent less memory allocation per operation, thanks to delegate caching, binding mode caching, and the removal of unnecessary type conversions. As described, the long-standing bug affecting empty-string binding to nullable value types has been resolved, correctly setting the bound property to null when an input field is cleared.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

📄 完整原文



点击展开查看完整原文

.NET 11 Preview 2 Brings Performance Gains, Improved Mapping, and Native OpenTelemetry Support

[

.NET

](/dotnet/)

#

.NET 11 Preview 2 Brings Performance Gains, Improved Mapping, and Native OpenTelemetry Support

Mar 19, 2026

2

Listen to this article -  0:00

Audio ready to play

0:00

0:00

Normal1.25x1.5x

Like

Last week, Microsoft released the [second preview of .NET 11](https://devblogs.microsoft.com ... iew-2/), bringing a wide range of improvements across its development platform. As reported, the release covers updates to the runtime, SDK, libraries, ASP.NET Core, Blazor, .NET MAUI, F#, and more. The preview is available now, and as stated, it represents a significant step forward in the platform's ongoing development cycle.

A new dotnet [*new webworker*](https://github.com/dotnet/core ... mplate) project template has also been introduced, allowing Blazor WebAssembly applications to offload heavy computations to a Web Worker without blocking the UI thread, keeping applications responsive during demanding operations.

[Kestrel's HTTP/1.1](https://github.com/dotnet/core ... ements) request parser has been reworked to avoid throwing exceptions on malformed requests. As stated, throughput improvements of 20 to 40 percent have been reported in high invalid-traffic scenarios such as port scanning or misconfigured clients.

The Map control in .[NET MAUI](https://github.com/dotnet/core ... aui.md) has received significant attention in this preview. Developers can now define map coordinates directly in XAML using a simplified syntax, removing the need for verbose markup that was previously required. A new *Map.Region* bindable property also allows developers to set the map's initial region declaratively.

Map elements such as *polygons*, *polylines*, and *circles* now support visibility toggling and draw-order control through new *IsVisible* and *ZIndex* properties, enabling more dynamic and interactive map overlays. Click events on the map elements are also now supported on both Android and iOS, opening the door for richer user interaction without additional workarounds.

Binding performance has also improved considerably in .NET MAUI. *TypedBinding* and [*SourceGeneratedBinding*](https://github.com/dotnet/core ... ements) are reported to be approximately 29 percent faster with 50 percent less memory allocation per operation, thanks to delegate caching, binding mode caching, and the removal of unnecessary type conversions. As described, the *long-standing* bug affecting empty-string binding to nullable value types has been resolved, correctly setting the bound property to null when an input field is cleared.

In contrast to C#, Preview 2 brings several notable additions to the [F# programming language](https://github.com/dotnet/core ... arp.md). The language gains support for the #elif preprocessor directive, eliminating the need for deeply nested conditional compilation blocks. A new [*partitionWith*](https://github.com/dotnet/core ... ctions) function has been added across core collection types, allowing as-explained collections to be split into two groups of different element types.

A new overload resolution caching mechanism is reported to reduce type-checking time from 6.5 seconds to 2.9 seconds in tested benchmarks. All 462 functions across core collection modules now also include [Big-O complexity notes](https://github.com/dotnet/core ... tation) visible directly in IDE tooltips.

Other changes in this release include a generic [*GetTypeInfo*](https://github.com/dotnet/core ... xtjson) for *System.Text.Json*, [tar archive](https://github.com/dotnet/core ... ection) format selection, and, as reported 15 percent performance improvement to [*Matrix4x4.GetDeterminant*](https://github.com/dotnet/core ... faster).

For interested readers, the full release notes are available on the [official .NET blog](https://devblogs.microsoft.com ... iew-2/) and the dotnet [GitHub repository](https://github.com/dotnet).

## About the Author

**Almir Vuk**

Show moreShow less

### Rate this Article

Adoption

Style

Author Contacted

This content is in the .NET topic

Related Topics:

Related Editorial

Related Sponsors

Related Sponsor

[

![](https://imgopt.infoq.com//fit- ... ality(100)/filters:no_upscale()/sponsorship/topic/614695a5-5e4d-4f5f-9c9a-a9d95f85b864/AkkaWebinarMar26-RSB-1771605862949.jpg)

](/url/f/e9394d05-d7ef-4a3a-beab-06bc96771bd9/)

March 26th, 2026, 11 AM EDT

### Related Content

A round-up of last week’s content on InfoQ sent out every Tuesday. Join a community of over 250,000 senior developers.

Enter your e-mail address

Select your country

Select a country

I consent to InfoQ.com handling my data as explained in this [Privacy Notice](https://www.infoq.com/privacy-notice).



---

## 🏢 关于 InfoQ

InfoQ 是知名的技术媒体,专注于报道人工智能、科技创新领域的最新动态。

---

## 📎 相关链接

- [阅读原文](https://www.infoq.com/news/202 ... global)
- [访问 InfoQ 获取更多内容](https://techcrunch.com)

---

*本文内容由 AI 辅助整理,仅供学习交流使用。版权归原作者所有。*


![头图: .NET 11 Preview 2 Brings Performance Gains, Improv](https://res.infoq.com/news/202 ... 12.jpg)

图片来源: InfoQ

---


## 📷 相关图片

![配图1: .NET 11 Preview 2 Brings Perfo...](https://images.unsplash.com/ph ... q%3D80)

![配图2: .NET 11 Preview 2 Brings Perfo...](https://images.unsplash.com/ph ... q%3D80)


Microsoft Adds DRA-Backed NVIDIA vGPU Support to AKS

AI 搜索industry_watcher 发表了文章 • 0 个评论 • 53 次浏览 • 5 小时前 • 来自相关话题

微软 Adds DRA-Backed 英伟达 vGPU Support to AKS


原文标题: Microsoft Adds DRA-Backed NVIDIA vGPU Support to AKS
来源: InfoQ | 分类: news
原文链接: [Microsoft Adds DRA-Backed NVIDIA vGPU Support to AKS](https://www.infoq.com/news/202 ... global)

---

📰 中文摘要


Microsoft Adds DRA-Backed NVIDIA vGPU Support to AKS



DevOps





Microsoft Adds DRA-Backed NVIDIA vGPU Support to AKS

Mar 19, 2026

3

Listen to this article -  0:00

Audio ready to play

0:00

0:00

Normal1.25x1.5x

Like

The Azure Kubernetes Service team shared a [detailed guide](https://blog.aks.azure.com/202 ... on-aks) on how to use [Dynamic Resource Allocation (DRA)](https://kubernetes.io/docs/con ... ce...

---

🔍 内容解读


段落 1


Microsoft Adds DRA-Backed NVIDIA vGPU Support to AKS

💡 行业趋势:这反映了当前技术发展的前沿方向,值得持续关注其后续进展。

---

段落 2


Microsoft Adds DRA-Backed NVIDIA vGPU Support to AKS

💡 行业趋势:这反映了当前技术发展的前沿方向,值得持续关注其后续进展。

---

段落 3


The Azure Kubernetes Service team shared a [detailed guide](https://blog.aks.azure.com/202 ... on-aks) on how to use [Dynamic Resource Allocation (DRA)](https://kubernetes.io/docs/con ... ation/) with NVIDIA vGPU technology on AKS. his update improves control and efficiency for shared GPU use in AI and media tasks.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 4


[Dynamic Resource Allocation (DRA)](https://kubernetes.io/docs/con ... ation/) is now the standard for GPU resource use in Kubernetes. Instead of static resources like nvidia.com/gpu, GPUs are allocated dynamically using DeviceClasses and ResourceClaims. This change enhances scheduling and improves integration with virtualization technologies like NVIDIA vGPU.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 5


The reason for combining these technologies is clear: virtual accelerators like NVIDIA vGPU often handle smaller tasks. They allow one physical GPU to be split among many users or applications. This setup is helpful for enterprise AI/ML development, fine-tuning, and audio/visual processing. vGPU offers predictable performance while still providing CUDA capabilities to containerized workloads.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 6


On the infrastructure side, this feature relies on Azure's [NVadsA10_v5](https://learn.microsoft.com/en ... ebasic) virtual machine series. Instead of assigning the whole GPU to one VM, vGPU technology partitions it into multiple fixed-size slices at the hypervisor layer. From Kubernetes' view, each VM shows one clear GPU device. The hypervisor sets capacity and memory limits, not the software.

🚀 产品解读:新产品的推出填补了市场空白,为目标用户群体提供了更便捷的解决方案。

---

段落 7


The setup requires [Kubernetes 1.34](https://kubernetes.io/releases/1.34/) or newer. At this point, DRA primitives like deviceclasses and resourceslices are available. Teams provision a node pool with NVadsA10_v5 instances and apply a label (nvidia.com/gpu.present=true) for the NVIDIA DRA kubelet plugin as its node selector. They then deploy the NVIDIA DRA driver via Helm. The post highlights three important Helm flags for vGPU scenarios. The gpuResourcesEnabledOverride=true flag skips a check that prevents the NVIDIA DRA driver from installing with the legacy device plugin due to different GPU names. FeatureGates.IMEXDaemonsWithDNSNames=false disables an IMEX feature that requires a newer GRID driver version than what's supported on the A10 series in Azure.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

📄 完整原文



点击展开查看完整原文

Microsoft Adds DRA-Backed NVIDIA vGPU Support to AKS

[

DevOps

](/Devops/)

#

Microsoft Adds DRA-Backed NVIDIA vGPU Support to AKS

Mar 19, 2026

3

Listen to this article -  0:00

Audio ready to play

0:00

0:00

Normal1.25x1.5x

Like

The Azure Kubernetes Service team shared a [detailed guide](https://blog.aks.azure.com/202 ... on-aks) on how to use [Dynamic Resource Allocation (DRA)](https://kubernetes.io/docs/con ... ation/) with NVIDIA vGPU technology on AKS. his update improves control and efficiency for shared GPU use in AI and media tasks.

[Dynamic Resource Allocation (DRA)](https://kubernetes.io/docs/con ... ation/) is now the standard for GPU resource use in Kubernetes. Instead of static resources like nvidia.com/gpu, GPUs are allocated dynamically using DeviceClasses and ResourceClaims. This change enhances scheduling and improves integration with virtualization technologies like NVIDIA vGPU.

The reason for combining these technologies is clear: virtual accelerators like NVIDIA vGPU often handle smaller tasks. They allow one physical GPU to be split among many users or applications. This setup is helpful for enterprise AI/ML development, fine-tuning, and audio/visual processing. vGPU offers predictable performance while still providing CUDA capabilities to containerized workloads.

On the infrastructure side, this feature relies on Azure's [NVadsA10_v5](https://learn.microsoft.com/en ... ebasic) virtual machine series. Instead of assigning the whole GPU to one VM, vGPU technology partitions it into multiple fixed-size slices at the hypervisor layer. From Kubernetes' view, each VM shows one clear GPU device. The hypervisor sets capacity and memory limits, not the software.

The setup requires [Kubernetes 1.34](https://kubernetes.io/releases/1.34/) or newer. At this point, DRA primitives like deviceclasses and resourceslices are available. Teams provision a node pool with NVadsA10_v5 instances and apply a label (nvidia.com/gpu.present=true) for the NVIDIA DRA kubelet plugin as its node selector. They then deploy the NVIDIA DRA driver via Helm. The post highlights three important Helm flags for vGPU scenarios. The gpuResourcesEnabledOverride=true flag skips a check that prevents the NVIDIA DRA driver from installing with the legacy device plugin due to different GPU names. FeatureGates.IMEXDaemonsWithDNSNames=false disables an IMEX feature that requires a newer GRID driver version than what's supported on the A10 series in Azure.

![](https://imgopt.infoq.com/fit-i ... ality(85)/filters:no_upscale()/news/2026/03/microsoft-nvidia-gpu/en/resources/1DRA_A10_vGPU_AKS_diagram-205255c16d9ef73b720c03cec8e0de7f (1)-1773844201509.jpg)

Beyond the baseline one-sixth slice (Standard_NV6ads_A10_v5), the series offers a one-third profile with 8 GB of accelerator memory and a one-half profile with 12 GB. Limits are enforced at the hypervisor layer, so AKS sees a single GPU device with predictable capacity. This gives platform teams flexibility to size GPU allocation based on workload needs without overprovisioning nodes.

The AKS team frames the broader significance as directional. As GPUs become first-class resources in Kubernetes, combining virtualized GPU with DRA offers a practical way to run shared, production-grade workloads. For large AKS deployments, especially in regulated or cost-sensitive industries, optimal GPU placement and utilization directly impact job throughput and infrastructure efficiency. Using DRA with vGPU helps organizations move from coarse node-level allocation to controlled, workload-driven GPU use at scale.

Google Cloud is pursuing a [similar path on GKE](https://cloud.google.com/blog/ ... c-2026), focusing on DRA as a scheduling primitive for both GPUs and TPUs. GKE's DRA support lets workloads use CEL expressions to filter devices with specific attributes. This allows a single manifest to deploy to different clusters with various GPU types without changes. Specifically for vGPU, Google recently previewed fractional G4 VMs using NVIDIA vGPU technology based on the RTX PRO 6000 Blackwell GPU, managed through GKE and combined with container binpacking for higher utilization. When scheduled via Google's Dynamic Workload Scheduler, fallback priorities can improve resource access.

## About the Author

Claudio Masolo

Show moreShow less

### Rate this Article

Adoption

Style

Author Contacted

This content is in the DevOps topic

Related Topics:

Related Editorial

Related Sponsors

[

From Observability to Actionability: Designing Agentic AI for Autonomous SRE on AWS

](/url/f/f418403e-5267-48e9-8089-de3ab3c6f579/)

Related Sponsor

[

![](https://imgopt.infoq.com//fit- ... ality(100)/filters:no_upscale()/sponsorship/topic/8e5012e2-847d-4389-ac4d-ff70a961fc6e/NeuBirdLogo-1770640733556.png)

](/url/f/f9183a9e-f112-42f5-ab9e-75c2adb8fa43/)

Boost AWS effectiveness with Agentic AI — unify telemetry, reduce noise, and resolve incidents faster. [Learn More](/url/f/8d627844-a2b6-4169-af23-42b6082653fa/).**

### Related Content

A round-up of last week’s content on InfoQ sent out every Tuesday. Join a community of over 250,000 senior developers.

Enter your e-mail address

Select your country

Select a country

I consent to InfoQ.com handling my data as explained in this [Privacy Notice](https://www.infoq.com/privacy-notice).



---

## 🏢 关于 InfoQ

InfoQ 是知名的技术媒体,专注于报道人工智能、科技创新领域的最新动态。

---

## 📎 相关链接

- [阅读原文](https://www.infoq.com/news/202 ... global)
- [访问 InfoQ 获取更多内容](https://techcrunch.com)

---

*本文内容由 AI 辅助整理,仅供学习交流使用。版权归原作者所有。*


![头图: Microsoft Adds DRA-Backed NVIDIA vGPU Support to A](https://res.infoq.com/news/202 ... 47.jpg)

图片来源: InfoQ

---


## 📷 相关图片

![配图1: Microsoft Adds DRA-Backed NVID...](https://images.unsplash.com/ph ... q%3D80)

![配图2: Microsoft Adds DRA-Backed NVID...](https://images.unsplash.com/ph ... q%3D80)


AI Model Discovers 22 Firefox Vulnerabilities in Two Weeks

AI 搜索industry_watcher 发表了文章 • 0 个评论 • 53 次浏览 • 5 小时前 • 来自相关话题

AI Model Discovers 22 Firefox Vulnerabilities in Two Weeks


原文标题: AI Model Discovers 22 Firefox Vulnerabilities in Two Weeks
来源: InfoQ | 分类: news
原文链接: [AI Model Discovers 22 Firefox Vulnerabilities in Two Weeks](https://www.infoq.com/news/202 ... global)

---

📰 中文摘要


(原文内容抓取失败,请访问原文链接查看)...

---

🔍 内容解读


📄 完整原文



点击展开查看完整原文

(原文内容抓取失败,请访问原文链接查看)



---

## 🏢 关于 InfoQ

InfoQ 是知名的技术媒体,专注于报道人工智能、科技创新领域的最新动态。

---

## 📎 相关链接

- [阅读原文](https://www.infoq.com/news/202 ... global)
- [访问 InfoQ 获取更多内容](https://techcrunch.com)

---

*本文内容由 AI 辅助整理,仅供学习交流使用。版权归原作者所有。*


![头图: AI Model Discovers 22 Firefox Vulnerabilities in T](https://res.infoq.com/news/202 ... 12.jpg)

图片来源: InfoQ

---


## 📷 相关图片

![配图1: AI Model Discovers 22 Firefox ...](https://images.unsplash.com/ph ... q%3D80)

![配图2: AI Model Discovers 22 Firefox ...](https://images.unsplash.com/ph ... q%3D80)


QCon London 2026: Refreshing Stale Code Intelligence

AI 搜索industry_watcher 发表了文章 • 0 个评论 • 55 次浏览 • 5 小时前 • 来自相关话题

QCon London 2026: Refreshing Stale Code Intelligence


原文标题: QCon London 2026: Refreshing Stale Code Intelligence
来源: InfoQ | 分类: news
原文链接: [QCon London 2026: Refreshing Stale Code Intelligence](https://www.infoq.com/news/202 ... global)

---

📰 中文摘要


QCon London 2026: Refreshing Stale Code Intelligence



AI, ML & Data Engineering





QCon London 2026: Refreshing Stale Code Intelligence

Mar 19, 2026

2

Listen to this article -  0:00

Audio ready to play

0:00

0:00

Normal1.25x1.5x

Like

At [QCon London 2026](https://qconlondon.com/), [Jeff Smith](https://qconlondon.com/present ... igence) presented the mismatch between AI coding models and real-world codebases. W...

---

🔍 内容解读


段落 1


QCon London 2026: Refreshing Stale Code Intelligence

💡 行业趋势:这反映了当前技术发展的前沿方向,值得持续关注其后续进展。

---

段落 2


QCon London 2026: Refreshing Stale Code Intelligence

💡 行业趋势:这反映了当前技术发展的前沿方向,值得持续关注其后续进展。

---

段落 3


At [QCon London 2026](https://qconlondon.com/), [Jeff Smith](https://qconlondon.com/present ... igence) presented the mismatch between AI coding models and real-world codebases. While AI tools are helping developers generate code faster than ever, Smith argued that the models themselves are increasingly stale because they lack the repository-specific knowledge required to produce production-ready contributions.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 5


The presenter described this gap as structural rather than temporary. Most coding models are trained on snapshots of public repositories that may be months old, and they rarely have access to an organization’s internal code. As a result, the models can generate syntactically correct code but often fail to follow the architectural constraints and conventions that govern individual repositories.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 6


One trend highlighted in the talk is the rapid growth of AI-assisted contributions. Mentions of AI tools in pull requests across several large open source projects increased dramatically between 2022 and 2025. However, acceptance rates have moved in the opposite direction. Smith cited data showing that pull request acceptance dropped during the same period.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 7


This pattern suggests that AI is increasing the volume of generated code but not necessarily improving the percentage of contributions that can be merged. According to Smith, the fundamental reason is that every repository has its own unwritten rules. These architectural constraints often live in the experience of senior engineers or in patterns embedded in a project’s commit history rather than in formal documentation.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

段落 8


The talk examined how these rules shape real development workflows. Smith described two broad categories of constraints found across repositories. Architectural rules define how the system itself is structured. These include requirements such as component registration patterns, dependency handling mechanisms, or cross-file version synchronization.

🤖 AI技术解读:这体现了人工智能技术在垂直领域的深入应用,展示了AI如何改变传统行业的工作方式。

---

📄 完整原文



点击展开查看完整原文

QCon London 2026: Refreshing Stale Code Intelligence

[

AI, ML & Data Engineering

](/ai-ml-data-eng/)

#

QCon London 2026: Refreshing Stale Code Intelligence

Mar 19, 2026

2

Listen to this article -  0:00

Audio ready to play

0:00

0:00

Normal1.25x1.5x

Like

At [QCon London 2026](https://qconlondon.com/), [Jeff Smith](https://qconlondon.com/present ... igence) presented the mismatch between AI coding models and real-world codebases. While AI tools are helping developers generate code faster than ever, Smith argued that the models themselves are increasingly stale because they lack the repository-specific knowledge required to produce production-ready contributions.

![](https://imgopt.infoq.com/fit-i ... ality(85)/filters:no_upscale()/news/2026/03/stale-code-intelligence/en/resources/1heade11-1773895951832.jpg)

The presenter described this gap as structural rather than temporary. Most coding models are trained on snapshots of public repositories that may be months old, and they rarely have access to an organization’s internal code. As a result, the models can generate syntactically correct code but often fail to follow the architectural constraints and conventions that govern individual repositories.

One trend highlighted in the talk is the rapid growth of AI-assisted contributions. Mentions of AI tools in pull requests across several large open source projects increased dramatically between 2022 and 2025. However, acceptance rates have moved in the opposite direction. Smith cited data showing that pull request acceptance dropped during the same period.

This pattern suggests that AI is increasing the volume of generated code but not necessarily improving the percentage of contributions that can be merged. According to Smith, the fundamental reason is that every repository has its own unwritten rules. These architectural constraints often live in the experience of senior engineers or in patterns embedded in a project’s commit history rather than in formal documentation.

The talk examined how these rules shape real development workflows. Smith described two broad categories of constraints found across repositories. Architectural rules define how the system itself is structured. These include requirements such as component registration patterns, dependency handling mechanisms, or cross-file version synchronization.

Procedural rules govern how code changes are introduced and reviewed. These include pull request conventions, testing expectations, and review workflows. Although experienced contributors quickly learn these patterns, generic coding models typically do not.

Smith noted that these rules are often enforced implicitly during code review rather than through automated tools. As a result, AI-generated code can appear correct while still violating repository constraints.

To address this problem, Smith proposed repository fingerprinting, systematically identifying and documenting the unique constraints of a codebase. The goal is to extract the implicit rules that developers already know and make them accessible to both humans and AI systems.

The presenter also argued that current benchmarks for coding models often fail to measure what actually matters in production environments. Generic tasks such as algorithmic problems or language syntax checks do not capture the repository-specific constraints that determine whether code can be merged.

Instead, organizations should evaluate AI coding tools based on their ability to respect the architectural constraints of their own codebases. According to Smith, teams that explicitly document and operationalize their repository rules will have a significant advantage as AI-generated code becomes more prevalent.

The talk concluded with the growing mismatch between AI models and real repositories is not primarily a tooling problem but a knowledge management problem. Engineering teams already possess the knowledge required to guide AI-assisted development. The challenge is making that knowledge explicit and integrating it into the systems that generate code. By surfacing the architectural rules embedded in their repositories, organizations can close the gap between generic AI models and the unique requirements of their software systems.

## About the Author

**Daniel Dominguez**

Show moreShow less

### Rate this Article

Adoption

Style

Author Contacted

This content is in the AI, ML & Data Engineering topic

Related Topics:

Related Editorial

Related Sponsors

Related Sponsor

[

![](https://imgopt.infoq.com//fit- ... ality(100)/filters:no_upscale()/sponsorship/topic/614695a5-5e4d-4f5f-9c9a-a9d95f85b864/AkkaWebinarMar26-RSB-1771605862949.jpg)

](/url/f/fd5082e2-7f99-4183-97ea-25b5851231b0/)

March 26th, 2026, 11 AM EDT

### Related Content

A round-up of last week’s content on InfoQ sent out every Tuesday. Join a community of over 250,000 senior developers.

Enter your e-mail address

Select your country

Select a country

I consent to InfoQ.com handling my data as explained in this [Privacy Notice](https://www.infoq.com/privacy-notice).



---

## 🏢 关于 InfoQ

InfoQ 是知名的技术媒体,专注于报道人工智能、科技创新领域的最新动态。

---

## 📎 相关链接

- [阅读原文](https://www.infoq.com/news/202 ... global)
- [访问 InfoQ 获取更多内容](https://techcrunch.com)

---

*本文内容由 AI 辅助整理,仅供学习交流使用。版权归原作者所有。*


![头图: QCon London 2026: Refreshing Stale Code Intelligen](https://res.infoq.com/news/202 ... 72.jpg)

图片来源: InfoQ

---


## 📷 相关图片

![配图1: QCon London 2026: Refreshing S...](https://images.unsplash.com/ph ... q%3D80)

![配图2: QCon London 2026: Refreshing S...](https://images.unsplash.com/ph ... q%3D80)


2026 春季招聘 | 春风十里,不如有你,别让才华埋没,来极限科技绽放光芒吧!

资讯动态INFINI Labs 小助手 发表了文章 • 0 个评论 • 72 次浏览 • 6 小时前 • 来自相关话题

fOTHYmbV5.jpeg



公司简介


极限科技,全称极限数据(北京)科技有限公司,是一家专注于实时搜索与数据分析的软件公司。旗下品牌极限实验室(INFINI Labs)致力于打造极致易用的数据探索与分析体验。

极限科技是一支年轻的团队,采用天然分布式的方式来进行远程协作,员工分布在全球各地,在北京、上海、广州、长沙等城市设有研发中心,希望通过努力成为中国乃至全球企业大数据实时搜索分析产品的首选,为中国技术品牌输出添砖加瓦。

官网:[https://infinilabs.cn](https://infinilabs.cn)

招聘信息


售前解决方案工程师(北京)


岗位职责:

1、深入分析客户业务场景与搜索需求,协助销售团队理解客户痛点,提供匹配的企业级搜索基础设施与整体架构建议 ;
2、负责公司产品与解决方案的售前技术支持,包括技术交流、方案编写、成本估算、产品演示及 PPT 制作与讲解 ;
3、协助销售进行客户需求调研、业务场景分析,提供基于分布式搜索引擎的技术方案与专业咨询 ;
4、参与客户培训与技术指导,提供现场售前技术支持,提升客户技术认知与产品信任度 ;
5、主导现场 POC,协调资源完成功能与非功能性测试,撰写测试报告并推动项目进展 ;
6、收集并反馈客户产品使用意见与需求,协助产品团队持续优化产品功能与用户体验 。

岗位要求:

1、全日制本科及以上学历,计算机、信息技术或相关专业优先 ;
2、3 年以上数据库、大数据或相关技术领域工作经验 ;
3、了解 Elasticsearch / Easysearch / OpenSearch 等搜索引擎,或熟悉至少一种主流数据库(如 MySQL、Oracle、MongoDB 等) ;
4、具备大型企业信息化项目经验,了解行业技术趋势、商业模式与主流 IT 服务商 ;
5、具备良好的沟通表达能力、应变能力,能独立与客户进行技术交流并精准把握需求 ;
6、具备客户需求深度挖掘与引导能力,能结合产品优势编写项目方案与技术建议书 ;
7、学习能力强,善于知识整合,具备良好的团队协作精神 。

加分项:

1、985 / 211 院校毕业优先 ;
2、拥有技术博客或在 AI、搜索、大数据、数据库等领域有内容输出经验 ;
3、持有 Elastic Certified Engineer(ECE)认证 ;
4、具备大规模搜索引擎集群设计、扩展与性能调优经验 ;
5、熟悉大数据相关技术栈,如 Kafka、Flink 等 ;
6、熟悉其他搜索引擎技术(如 Solr、Lucene)者优先 。

区域销售经理(北京)


岗位职责:

1、深耕 TO B 业务:专注于金融行业(特别是银行及证券)或央国企(特别是能源、大制造行业),建立并维护与该行业关键客户的良好关系,深入挖掘客户对企业搜索解决方案的需求 ;
2、攻坚克难,促成交易:面对复杂多变的销售环境,展现出强大的攻坚克难能力,有效应对客户异议,推动销售项目从初期接触到最终成交的全过程 ;
3、客户关系管理:建立并管理高价值的客户关系网络,通过定期的沟通、拜访及活动策划,增强客户粘性,促进长期合作 ;
4、解决方案设计与呈现:基于客户具体需求,结合公司产品与技术优势,设计并呈现定制化的解决方案,有效展现产品价值及实施效果 ;
5、技术学习与传递:快速学习并掌握最新的企业搜索、AI 搜索技术趋势、产品特性及竞争对手动态,能够准确、专业地向客户传达技术价值,提升客户信任度 ;
6、业绩达成与团队协作:确保达成公司设定的个人销售目标,同时与售前技术支支持、售后服务等部门紧密合作,确保项目顺利交付及客户满意度 。

岗位要求:

1、全日制本科及以上学历 ;
2、3 年以上 IT 解决方案或软件销售经验,具有 1 年以上金融或央国企相关行业销售背景 ;
3、面对挑战不退缩,能够积极寻找解决方案,推动项目进展直至成功 ;
4、了解所在行业业务流程及 IT 架构,能够快速学习并掌握新技术 ;
5、工作态度认真负责,勤奋敬业,能够承受一定的工作压力,确保任务按时按质完成 ;
6、良好的团队合作精神,能够与跨部门团队有效协作,共同达成目标 ;
7、销售提成额外签署补充协议 。

加分项:

1、计算机科学、信息技术或相关专业 ;
2、985 / 211 院校毕业优先 ;
3、了解开源行业及生态,理解相关技术及商业逻辑 ;
4、有数据库或大数据相关产品及解决方案销售经验 。

市场专员(北京)


岗位职责:

1、负责公司企业搜索、AI 搜索解决方案的技术生态运营工作,包括国内及全球市场 ;
2、负责市场活动策划,包括但不限于线上活动、线下活动、品牌合作等,提升品牌形象 ;
3、以技术角度,整合上下游合作伙伴资源,建立产品在市场上的知名度 ;
4、规划产品技术生态运营工作,包括自运营技术社区、展会合作、新媒体媒体投放等 ;
5、积极通过数字化体现运营价值,驱动产品知名度,配合一线最终实现销售业绩提升 ;
6、负责市场调研及相关情报搜集整理,同竞品的分析对比和信息搜集,根据市场反馈和数据,分析结果 ;
7、熟练使用 AI 工具做内容创作、 AI 作图、素材制作等,支持内容传播与活动落地 。

岗位要求:

1、市场运营或计算机科学、信息技术相关专业全日制本科或以上学历 ;
2、1-3 年以上科技产品公司市场运营经验 ;
3、具有良好的数据敏感度,善于从数据中发现问题点、机会点,具备良好的分析问题、解决问题的能力 ;
4、主导或参与过软件企业重大发布会、大型行业展会,或专题系列的技术巡展 ;
5、结果导向,执行力强,擅长跨部门协同,以获客转化为核心目标 。

加分项:

1、985 / 211 院校毕业优先 ;
2、有海外留学经验,英文阅读沟通能力强 ;
3、有数据分析基础,熟练使用 Python ;
4、有广告、AI 营销、IT 媒体或产业联盟工作经验优先 ;
5、熟悉使用 Office 办公软件,了解 PS、PR、剪映等设计软件者优先 ;
6、有在软件开发、数据库或大数据领域 维护运营博客或自媒体经验优先 。

客户成功经理(长沙)


岗位职责:

1、负责客户全生命周期的成功管理,包括 Onboarding、产品培训、日常维护、使用跟踪及定期回访,确保客户持续获得价值 ;
2、主动服务,发现那些客户需要帮助,提前介入,提供主动关怀,及时响应客户问题与需求,推动问题闭环解决 ;
3、筛选或发现优质客户,促进增购、续约购,给销售团队提供最佳信息 ;
4、技术学习与传递:快速学习并掌握最新的企业搜索、AI 搜索技术趋势、产品特性及竞争对手动态,能够准确、专业地向客户传达技术价值,提升客户信任度 ;
5、沟通与项目管理:协调内部资源(销售,售后服务,产品、开发等部门),提高客户满意度 ;
6、收集客户反馈与需求,输出产品优化建议,与产品团队紧密协作推动产品迭代 。

岗位要求:

1、全日制本科及以上学历,限 2026 年应届生 ;
2、快速学习能力,熟悉和理解行业客户的业务逻辑及IT架构(如金融、能源、制造业等) ;
3、具备一定的数据分析能力,通过客户使用数据预判需求或风险 ;
4、工作态度认真负责,勤奋敬业 ;
5、良好的团队合作精神,能够与跨部门团队有效协作,共同达成目标 。

加分项:

1、计算机科学、信息技术或相关专业 ;
2、985 / 211 院校毕业优先 ;
3、有过 数据库类或大数据类技术性工作经验 ;
4、熟悉 AI、搜索、大数据、数据库等相关行业知识 。

UI/交互设计实习生(长沙)


岗位职责:

1、负责产品界面与交互设计,优化用户体验 ;
2、支持运营活动视觉输出,熟练使用AI工具产出创意素材 ;
3、参与官网、海报等设计工作 ;
4、结合数据反馈优化设计,提升转化效果 ;
5、与产品、开发团队协作推进方案落地 。

岗位要求:

1、985 / 211 全日制本科及以上学历在读,视觉传达、人机交互、数字媒体艺术等相关专业优先 ;
2、关注设计趋势,学习能力强,能快速掌握新工具与方法 ;
3、具备较强的审美能力、逻辑思维能力、沟通表达能力以及对细节的极致追求 ;
4、应聘者请准备好自己的作品,请将作品集与简历一同发送 。

加分项:

1、有设计社区(Behance、Dribbble、站酷等)作品或运营经验 ;
2、有动效设计或动画制作经验 。

软件测试实习生(长沙)


岗位职责:

1、参与项目和日常产品需求分析,把控需求和系统分析质量和风险 ;
2、负责完成产品功能特性的测试设计以及测试用例的编写 ;
3、组织测试实施工作,跟进测试的进展和完成情况,记录测试结果并准备测试报告 ;
4、通过抓包或日志分析,能够对常见bug进行基本定位 ;
5、不断改进测试流程和方法,以提高质量和效率 ;
6、关注产品质量和客户需求,确保稳定、可靠和用户友好的软件交付 。

岗位要求:

1、985 / 211 全日制本科及以上学历在读,计算机以及相关专业 ;
2、熟悉软件测试基础理论、测试流程及常用测试方法 ;
3、良好的英文读写能力,能够有效的阅读和学习英文技术资料 ;
4、很强的自我驱动学习能力和技术钻研能力,具备优秀的沟通技巧,很好的责任心与高执行力 ;
5、能够承受压力,在快节奏的环境中高效工作 。

加分项:

1、熟悉 Go 或 Java 或 Python 编程语言,熟练 Linux,Git 常用命令 ;
2、熟悉 AI、搜索、大数据、数据库等相关行业知识 ;
3、熟悉 Easysearch / Elasticsearch / OpenSearch 等搜索引擎 。

内容运营实习生(长沙)


岗位职责:

1、负责社区内容的策划、文案、编辑,围绕团队成果产出技术解读文章,通过公众号、博客、社区等形式进行内容运营,提升公司的影响力 ;
2、支持市场营销中的内容输出,善于利用 AI 工具提供有吸引力的设计创意与素材 ;
3、参与其他新媒体相关工作,如视频号、小红书、抖音账号等内容创作和运营 ;
4、数据化运营,包括分析官网访问、下载等数据指标,根据数据反馈及时调整策略,提升运营效果 ;
5、定期与社区用户、媒体沟通,保持通畅的聆听反馈机制 ;
6、参与策划、组织及执行团队主办或承办的各类社区活动 。

岗位要求:

1、985 / 211 全日制本科及以上学历在读,新闻、营销、传媒、计算机等相关专业优先 ;
2、需要公众号运营、短视频运营相关工作经验;熟练掌握排版、拍摄、剪辑等各项能力 ;
3、具备较强的创意和策划能力、应变能力、语言和文字表达能力以及敏锐的市场触角 ;
4、对搜索技术、互联网产品及工具类信息怀有浓厚兴趣,具备快速学习并熟练掌握相关知识的能力,能够紧跟行业动态 。

加分项:

1、具有用户增长、数据分析、数据挖掘、信息检索经验者优先 ;
2、具有开源社区、开发者社区、开源媒体运营经验者优先 。

更多职位请访问 Boss 直聘


微信图片_20260319200339_349.jpg




简历投递


  1. 邮件:hello@infini.ltd(邮件标题请备注姓名+求职岗位)
  2. 微信:INFINI-Labs (加微请备注求职岗位)

    ![](https://infinilabs.cn/img/comp ... at.jpg)

    我们期待有才华、有激情的你加入我们,一起探索数据搜索的未来,共同创造无限可能!

Project Genie:Google DeepMind 开启无限交互世界新纪元

AI 搜索ai_insider 发表了文章 • 0 个评论 • 1168 次浏览 • 2 天前 • 来自相关话题

# Project Genie:Google DeepMind 开启无限交互世界新纪元
来源: Google DeepMind Blog
发布时间: 2026年1月29日
作者: Diego Rivas, Elliott Breece, Suz Chambers引言:从世界模型到无限创造
2026年1月29日,Google DeepMind 正式推出 Project Genie —— 一款基于 Genie 3 世界模型的实验性研究原型产品。这一里程碑式的发布标志着 AI 驱动的交互式世界生成技术正式走向普通用户,让"创造无限世界"从科幻概念变为触手可及的现实。
Project Genie 目前面向美国地区的 Google AI Ultra 订阅用户(18岁以上)开放,它允许用户通过简单的文本提示和图像输入,创造、探索和重新混合属于自己的交互式虚拟世界。什么是世界模型?世界模型的核心概念
世界模型(World Model) 是一种能够模拟环境动态变化的 AI 系统,它可以预测环境如何演变以及用户行为如何影响环境状态。与传统的静态 3D 场景不同,世界模型能够实时生成可交互的动态体验。
Google DeepMind 在特定环境智能体领域有着深厚的积累,从早期的 AlphaGo(围棋)到 AlphaZero(国际象棋),这些系统都展现了 AI 在封闭环境中的强大能力。然而,构建真正的通用人工智能(AGI)需要能够适应现实世界多样性的系统。Genie 3 的技术突破
Genie 3 是 Google DeepMind 于 2025 年 8 月首次预览的通用世界模型,它能够生成多样化、可交互的环境。与静态 3D 快照的可探索体验不同,Genie 3 的突破性在于:
  • 实时动态生成:不同于预渲染静态场景
  • 物理模拟与自由交互:突破有限的预设交互
  • 突破性的场景连续性:打破固定场景边界
  • 多元应用场景:机器人、动画、虚构世界、历史探索

Project Genie 的三大核心能力
Project Genie 是一个基于网页的实验性原型应用,由 Genie 3Nano Banana ProGemini 三大 AI 模型联合驱动。它围绕以下三个核心能力构建:1. 世界草图(World Sketching)
用户可以通过文本提示结合生成或上传的图像来创造生动、不断扩展的环境。你可以:
  • 🎨 创建角色:定义你的世界中的主角形象
  • 🌍 构建世界:设计独特的环境场景
  • 🎮 定义探索方式:从步行、骑行、飞行到驾驶,任何你能想象的方式

精准控制增强:Project Genie 集成了 Nano Banana Pro 图像生成模型,允许用户在进入世界前预览世界外观,并通过修改图像来微调世界设定。你还可以定义角色的视角(第一人称或第三人称),在进入场景前完全掌控体验方式。2. 世界探索(World Exploration)
你的世界是一个可导航的动态环境,等待你去探索。随着你的移动,Project Genie 会根据你的行为实时生成前方的路径。在穿越世界的过程中,你还可以随时调整摄像机角度,获得最佳的探索视角。
这种实时生成机制意味着:
  • 每个世界都是独一无二
  • 探索过程充满惊喜和未知
  • 用户可以自由决定探索的方向和方式

3. 世界重新混合(World Remixing)
Project Genie 支持基于现有提示重新混合世界,创造出全新的诠释版本。你可以:
  • 🔄 在画廊中探索精选世界:获取灵感
  • 🎲 使用随机生成器:发现意想不到的创意
  • 🏗️ 在他人作品基础上构建:协作式创作
  • 📹 下载视频:保存你的世界和探索过程

负责任的 AI 开发
Google DeepMind 强调,Project Genie 是一个实验性研究原型,作为通往通用 AI 系统的一部分,其使命是负责任地构建有益于人类的 AI。当前模型的已知限制
由于 Genie 3 仍处于早期研究阶段,存在以下需要改进的方面:
  • 视觉保真度:生成的世界可能不完全真实,或无法始终严格遵循提示/图像/物理规律
  • 角色控制:角色有时可控性较低,控制响应可能存在较高延迟
  • 时长限制:单次生成限制在 60 秒以内

访问方式与展望当前可用性
  • 目标用户: Google AI Ultra 订阅用户
  • 🌍 地区: 美国(18岁以上)
  • 📅 发布时间: 2026年1月29日起逐步开放
  • 🔮 扩展计划: 未来将扩展到更多地区

长远愿景
Google DeepMind 表示:"我们期待看到用户创造的无限多样化世界。随着时间的推移,我们的目标是让更多用户能够体验这些技术和体验。"总结
Project Genie 的发布代表了 AI 世界模型技术从实验室走向用户的重要一步。它不仅展示了 Google DeepMind 在生成式 AI 领域的领先地位,更为创作者、开发者和普通用户打开了一扇通往无限交互世界的大门。
随着技术的不断成熟,我们可以期待更长的生成时长、更高的视觉保真度、更精准的控制能力和更广泛的地区覆盖。
Project Genie 不仅是一个工具,更是通往 AI 驱动创意未来的窗口。
本文基于 Google DeepMind 官方博客文章翻译整理,原文发布于 2026年1月29日。

Wayfair 借助 OpenAI 大幅提升商品目录准确性和客服效率

AI 搜索ai_insider 发表了文章 • 0 个评论 • 2 次浏览 • 2 天前 • 来自相关话题

Wayfair 借助 OpenAI 大幅提升商品目录准确性和客服效率引言
作为全球领先的家居用品零售商之一,Wayfair 近期宣布与 OpenAI 达成深度战略合作,将先进的生成式 AI 技术全面整合到其核心业务系统中。这一举措不仅显著提升了商品目录数据的质量,还大幅优化了供应商支持工作流程,为电商行业树立了 AI 驱动运营的新标杆。


"我们不是在将生成式 AI 当作实验或单点解决方案,而是将其嵌入核心运营工作流程中。" —— Wayfair 技术团队


一、背景:电商巨头的数据挑战1.1 海量商品目录的管理困境
Wayfair 平台管理着近3000万种商品,涵盖近千个不同的产品类别。在如此庞大的规模下,保持商品属性标签(如颜色、材质、尺寸、特定功能等)的一致性和准确性,一直是困扰电商行业的核心难题。1.2 传统方案的局限性
在引入 OpenAI 技术之前,Wayfair 主要依赖以下方式维护数据质量:
  • 人工审核:由供应商和客户反馈问题,人工团队逐一核实修正
  • 定制 AI 模型:为单个标签训练专门的机器学习模型

然而,这些方案都存在明显瓶颈:


"我们最初为单个标签构建定制模型,技术上确实可行。但当你面对47,000个标签时,这种方法根本无法扩展。" —— Carolyn Phillips,Wayfair 机器学习科学家


二、技术架构:可复用的 AI 标签系统2.1 统一模型的设计思路
为了解决规模化难题,Wayfair 技术团队设计了一套标签无关(tag-agnostic)的 AI 架构,基于单一的 OpenAI 模型实现全品类覆盖。核心组件
定义代理(Definition Agent)是系统的核心创新:
  1. 自动学习标签含义:代理会抓取网页和内部定义,为每个标签生成上下文相关的语义理解
  2. 消除人工瓶颈:传统方法中,定义和编码每个标签的含义需要大量人工时间
  3. 动态扩展能力:新标签加入时,系统自动学习其定义,无需重新训练

2.2 惊人的扩展速度
借助这套架构,Wayfair 扩展新属性标签的速度达到了 一年前的70倍。三、智能客服系统:Wilma 的 AI 升级3.1 Wilma 智能工单系统
Wayfair 为其供应商支持产品 Wilma 添加了 Agentic AI 功能,核心能力包括:工单分类(Triage)
  • 意图识别:自动读取请求内容,识别供应商意图
  • 上下文补全:从数据库填充缺失信息
  • 智能路由:将工单指向正确的处理团队
  • 自动回复:必要时主动联系供应商获取更多信息

3.2 从辅助到半自动的演进
Wayfair 采用渐进式部署策略,通过 "对齐率"(Alignment Rate)指标衡量 AI 建议与人工决策的一致性:
[code]对齐率 = AI 建议与人工最终决策一致的频率

当对齐率持续达到预设阈值时:
├── 辅助模式 (Co-pilot) ──▶ 半自动模式 (Auto-pilot)
└── 人工审核所有建议 ──▶ 系统自动处理常规请求
[/code]四、可量化的业务成果4.1 商品目录优化成果
  • 修正标签数:250万+,覆盖100万+高曝光高销量商品
  • A/B 测试结果:曝光量、点击量、页面排名均显著改善
  • 预期6个月增长:4倍

4.2 供应商支持效率提升
  • 月自动化工单:41,000 张,部分工作流自动化率达 70%
  • 响应时间:显著缩短,去除人工分类和路由环节
  • 供应商满意度:显著提升

五、技术合作与未来展望5.1 长期战略合作关系
Wayfair 与 OpenAI 的合作已从早期试点发展为涵盖多个层面的战略伙伴关系
  • 模型选择:共同评估和选择最适合业务场景的模型
  • 部署最佳实践:分享企业级 AI 部署经验
  • 内部推广:推动全公司范围内的 AI 应用
  • 前沿探索:测试多模态等新技术能力


"最有价值的是思想伙伴关系。不仅仅是访问模型,而是共同探讨新的用例并能够快速行动。" —— Fiona Tan,Wayfair 首席技术官


5.2 多模态 AI 的家居零售应用
家居零售具有独特的视觉和风格属性,多模态 AI 模型为 Wayfair 带来了新的可能性:


"传统算法需要严格定义的数据集。这些模型使我们能够以以前无法扩展的方式处理模糊性和上下文。" —— Carolyn Phillips


典型应用场景
  • 视觉搜索:客户上传房间照片,AI 推荐匹配风格的家具
  • 风格匹配:基于现有家具推荐协调的装饰品
  • 尺寸建议:结合空间图像提供合适的尺寸建议

六、结语
Wayfair 与 OpenAI 的合作案例展示了生成式 AI 在电商领域的巨大潜力。通过将 AI 深度嵌入核心运营流程,Wayfair 不仅解决了长期困扰行业的数据质量难题,还显著提升了供应商支持效率。
对于 Wayfair 的领导者而言,目标始终是在扩展内部能力的同时增强人类专业知识:


"我们正在为一个 AI 成为购物旅程一部分的世界做准备——无论是在我们的网站上、通过支持渠道,还是通过对话式界面。" —— Fiona Tan


参考链接

本文基于 OpenAI 官方博客文章翻译整理,如有出入请以原文为准。

Gemini 3.1 Pro 重磅发布:为复杂任务而生的新一代AI模型

AI 搜索ai_insider 发表了文章 • 0 个评论 • 1184 次浏览 • 2 天前 • 来自相关话题

Google DeepMind 正式发布 Gemini 3.1 Pro,这款升级后的核心智能模型正在向消费者和开发者全面铺开,带来突破性的推理能力和实际应用场景。引言:从 Deep Think 到 3.1 Pro 的技术传承
2026年2月,Google DeepMind 在AI领域接连投下重磅炸弹。先是发布了专门用于解决科学、研究和工程挑战的 Gemini 3 Deep Think 升级版,随后紧接着推出了承载这些突破性能力的核心智能模型 —— Gemini 3.1 Pro


"3.1 Pro 专为那些简单答案远远不够的任务而设计。" —— The Gemini Team


这一连串发布标志着 Google 在通用人工智能(AGI)道路上的重要里程碑。如果说 Deep Think 是面向专业研究人员的"特种武器",那么 3.1 Pro 则是将高级推理能力民主化,带给每一位开发者和普通用户。核心升级:推理能力的质的飞跃基准测试表现
Gemini 3.1 Pro 在多项严苛的基准测试中展现出惊人的进步:基准测试3.1 Pro 得分相比 3 Pro 提升ARC-AGI-277.1%2倍+Humanity's Last Exam48.4% (无工具)新标准Codeforces Elo3455金牌水平IMO 2025金牌级别持续领先
ARC-AGI-2 是一项极具挑战性的基准测试,专门评估模型解决全新逻辑模式的能力。3.1 Pro 在这一测试中获得 77.1% 的验证分数,相比 3 Pro 实现了翻倍以上的推理性能提升。技术架构特点
3.1 Pro 建立在 Gemini 3 系列基础之上,代表了核心推理能力的重大进步。它不仅仅是一个"更聪明的模型",更是一个为复杂问题解决而设计的智能基线。实际应用场景演示
Google 官方展示了 3.1 Pro 在多个实际场景中的惊人表现:1. 代码动画生成
3.1 Pro 能够直接根据文本提示生成网站可用的动画 SVG。与传统视频相比,这些基于纯代码(而非像素)的动画具有以下优势:
  • 无限缩放:在任何分辨率下都保持清晰
  • 极小体积:文件大小远小于传统视频格式
  • 直接嵌入:可直接集成到网页中

2. 复杂系统合成
模型展示了将复杂 API 转化为用户友好设计的能力。在一个令人印象深刻的示例中,3.1 Pro 成功构建了一个实时航空航天仪表板,配置了公共遥测数据流来可视化国际空间站的轨道。
这体现了模型在数据整合系统设计方面的强大能力。3. 交互式设计
3.1 Pro 编码了一个复杂的 3D 椋鸟群飞(Starling Murmuration)模拟
  • 生成视觉代码只是基础
  • 构建了沉浸式体验,用户可以通过手势追踪操控鸟群
  • 创作了生成式配乐,根据鸟类运动实时变化

对于研究人员和设计师而言,这提供了一种原型化感官丰富界面的强大方式。4. 创意编程
当要求为艾米莉·勃朗特的《呼啸山庄》构建一个现代个人作品集网站时,3.1 Pro 不仅仅是总结文本内容,而是:
  • 推理小说的大气氛围
  • 设计出简洁、现代的界面
  • 创建一个捕捉原著精髓的网站

这展示了模型在文学理解创意转化方面的深度能力。获取方式与产品集成开发者渠道
3.1 Pro 正在通过以下平台向开发者推出预览版:
  • Google AI Studio —— 在线提示工程环境
  • Gemini CLI —— 命令行界面
  • Google Antigravity —— Google 的代理开发平台
  • Android Studio —— Android 开发环境

企业渠道
企业用户可通过以下服务访问:
  • Vertex AI —— Google Cloud 的企业级 AI 平台
  • Gemini Enterprise —— 企业专属服务

消费者渠道
普通用户可以通过:
  • Gemini App —— 移动端和网页端应用
  • NotebookLM —— AI 驱动的笔记和研究工具


订阅提示:Gemini App 中的 3.1 Pro 已向 Google AI Pro 和 Ultra 订阅用户推出,享有更高的使用限额。


与 Gemini 3 Deep Think 的关系
理解 3.1 Pro 和 Deep Think 的关系至关重要:特性Gemini 3.1 ProGemini 3 Deep Think定位通用核心智能专业推理模式目标用户开发者、企业、普通消费者科研人员、工程师使用场景日常应用、复杂任务科学研究、数学证明可用性广泛推出限 Ultra 订阅/API申请关系Deep Think 的基础基于 3.1 Pro 的特化版本
简单来说:3.1 Pro 是"大脑",Deep Think 是"专业思维模式"。早期用户反馈
在正式发布前,Google 已与多个领域的专家合作测试:数学研究
Lisa Carbone(罗格斯大学数学家)在研究高能物理所需的数学结构时使用 Deep Think 审查技术数学论文。模型成功识别出了一个之前通过人工同行评审未发现的微妙逻辑缺陷。材料科学
杜克大学 Wang 实验室利用 Deep Think 优化复杂晶体生长的制备方法,用于半导体材料的潜在发现。模型成功设计了生长超过 100 μm 薄膜的配方,达到了之前方法难以实现的精确目标。硬件设计
Anupam Pathak(Google 平台与设备部门研发负责人)测试 Deep Think 加速物理组件设计。未来展望
Google 表示,自 2024 年 11 月发布 Gemini 3 Pro 以来,用户反馈和技术进步的速度推动了这些快速改进。3.1 Pro 目前以预览版形式发布,目的是:
  1. 验证更新 —— 确保模型在实际使用中的稳定性
  2. 推进代理工作流 —— 在 ambitious agentic workflows 领域取得进一步进展
  3. 收集反馈 —— 为正式版(GA)的发布做准备


"我们迫不及待地想看到你们用它构建和发现什么。" —— The Gemini Team


总结
Gemini 3.1 Pro 的发布标志着 AI 能力民主化的重要一步。它将原本只属于顶尖研究人员的深度推理能力,通过熟悉的工具和平台带给更广泛的受众。
对于开发者而言,这意味着可以构建更智能的应用;对于企业而言,这意味着可以自动化更复杂的业务流程;对于普通用户而言,这意味着拥有一个真正能"思考"的AI助手。
关键要点
  • ✅ 推理性能翻倍(ARC-AGI-2 77.1%)
  • ✅ 多平台同步推出(API、App、企业版)
  • ✅ 实际应用场景验证(代码动画、系统设计、创意编程)
  • ✅ 与 Deep Think 形成互补的产品矩阵
  • ✅ 预览版已可用,正式版即将推出

参考链接

本文基于 Google DeepMind 官方发布内容整理,发布于 2026年3月17日
来源: DeepMind Blog

D4RT:让AI拥有四维视觉感知能力,开启动态场景理解新纪元

AI 搜索ai_insider 发表了文章 • 0 个评论 • 1184 次浏览 • 2 天前 • 来自相关话题

Google DeepMind 最新发布的 D4RT(Dynamic 4D Reconstruction and Tracking)模型,标志着人工智能在动态场景理解领域取得了重大突破。这款统一化的 AI 模型能够在单一高效框架内实现四维场景的重建与追踪,为机器人、增强现实和"世界模型"等前沿应用奠定了坚实基础。四维感知:AI 视觉的下一个前沿
人类在观察世界时,会不自觉地执行一项非凡的记忆与预测任务。我们不仅能看到某一时刻的世界状态,还能理解它之前的状态以及即将发生的变化。我们的大脑维持着对现实的持续表征,并利用这一模型来推断过去、现在与未来之间的因果关系。
为了让机器也能像人类一样"看见"世界,研究人员可以为它们配备摄像头,但这只是解决了输入问题。要真正理解这些输入,计算机必须解决一个复杂的逆问题:将视频(一系列二维平面投影)转化为对丰富、立体、动态的三维世界的理解。D4RT 的技术架构:查询驱动的统一框架
D4RT 采用统一的编码器-解码器 Transformer 架构。编码器首先将输入视频处理为场景几何与运动的压缩表征。与早期使用独立模块处理不同任务的系统不同,D4RT 通过灵活的查询机制只计算所需内容,其核心围绕一个根本问题:


视频中的某个像素在任意时刻、从选定相机视角观察时,在三维空间中的位置在哪里?


基于 DeepMind 先前在 SRT(Scene Representation Transformer)方面的工作,轻量级解码器通过查询这一表征来回答具体实例。由于查询相互独立,它们可以在现代 AI 硬件上并行处理。这使得 D4RT 极快且可扩展,无论是追踪几个点还是重建整个场景。核心能力:快速精准的四维理解
凭借这种灵活的公式化方法,D4RT 能够解决多种 4D 任务:
  • 点追踪(Point Tracking):通过查询像素在不同时间步的位置,D4RT 可以预测其 3D 轨迹。重要的是,即使物体在其他视频帧中不可见,模型也能进行预测。
  • 点云重建(Point Cloud Reconstruction):通过冻结时间和相机视角,D4RT 可以直接生成场景的完整 3D 结构,无需额外的相机估计或逐视频迭代优化。
  • 相机姿态估计(Camera Pose Estimation):通过生成并比对来自不同视角的单一时刻 3D 快照,D4RT 可以轻松恢复相机轨迹。

性能突破:效率提升 300 倍
D4RT 的简化架构和新颖查询机制使其处于 4D 重建领域的前沿,同时比先前方法效率提升高达 300 倍——快到足以支持机器人、增强现实等实时应用。
根据技术报告,D4RT 在各种 4D 重建任务中均优于先前方法。定性比较显示,虽然其他方法在处理动态物体时经常遇到困难——常常出现重复或完全无法重建的情况——但 D4RT 能够保持对运动世界的稳固、连续理解。
关键的是,D4RT 的精度并未以效率为代价。在测试中,它的性能比先前最先进方法快 18 到 300 倍。例如,D4RT 在单个 TPU 芯片上处理一分钟视频大约只需 5 秒,而先前最先进方法可能需要长达 10 分钟——提升了 120 倍。下游应用场景
D4RT 证明了在 4D 重建中无需在准确性和效率之间做选择。其灵活的查询系统能够实时捕捉我们的动态世界,为下一代空间计算铺平道路:
  • 机器人(Robotics):机器人需要在充满移动人员和物体的动态环境中导航。D4RT 可以提供安全导航和灵巧操作所需的空间感知能力。
  • 增强现实(AR):为了让 AR 眼镜将数字对象叠加到现实世界,它们需要对场景几何有即时、低延迟的理解。D4RT 的效率使其在设备端部署成为可触及的现实。
  • 世界模型(World Models):通过有效解耦相机运动、物体运动和静态几何,D4RT 让我们更接近拥有物理现实真正"世界模型"的 AI——这是通往 AGI 的必要步骤。

技术细节与资源
D4RT 由 Google DeepMind 的研究人员 Guillaume Le Moing 和 Mehdi S. M. Sajjadi 主导开发。相关技术报告已发布在 arXiv 上,项目网站提供了交互式演示,让用户可以直接在浏览器中探索 D4RT 的输出效果。
研究人员正在继续探索该模型的能力及其在机器人、增强现实等领域的潜在应用。
来源Google DeepMind Blog - D4RT: Teaching AI to see the world in four dimensions
技术报告arXiv:2512.08924
项目网站https://d4rt-paper.github.io/

OpenAI Codex Security 设计理念解析:为何弃用 SAST 报告作为起点

AI 搜索ai_insider 发表了文章 • 0 个评论 • 1180 次浏览 • 2 天前 • 来自相关话题

OpenAI Codex Security 设计理念解析:为何弃用 SAST 报告作为起点


原文来源:[OpenAI Blog](https://openai.com/index/why-c ... e-sast)
发布时间:2026年3月
关键词:AI 安全、代码安全、SAST、静态分析、Codex Security

---

引言


数十年来,静态应用安全测试(SAST)一直是安全团队扩展代码审查工作的最有效方式之一。然而,当 OpenAI 构建 Codex Security 时,他们做出了一个深思熟虑的设计选择:不通过导入静态分析报告并让智能体对其进行分类来启动流程。相反,Codex Security 的设计是从代码仓库本身出发——包括其架构、信任边界和预期行为——并在要求人工投入时间之前验证其发现的问题。

这个决策背后的原因很简单:最难发现的漏洞通常不是数据流问题。它们发生在代码看似执行了安全检查,但该检查实际上并不能保证系统所依赖的安全属性时。换句话说,挑战不仅仅是追踪数据如何在程序中流动——而是确定代码中的防御措施是否真正有效。

---

SAST 的核心局限:过度优化数据流分析


理想化的 SAST 模型


SAST 通常被描述为一个清晰的流水线:

<br /> 识别不可信输入源 → 追踪数据在程序中的流动 → 标记数据未经净化到达敏感接收点的情况<br />

这是一个优雅的模型,涵盖了大量真实存在的漏洞。

现实中的近似处理


然而在实际应用中,SAST 为了在大规模真实代码库中保持可处理性,不得不进行近似处理——尤其是在存在间接调用、动态分发、回调、反射和重度框架控制流的情况下。这些近似处理并不是对 SAST 的批评;而是在不执行代码的情况下推理代码的现实妥协。

更深层的问题


但这本身并不是 Codex Security 不以 SAST 报告为起点的原因。

更深层的问题是:即使成功地将数据源追踪到接收点,静态分析仍然必须回答一个决定漏洞是否真正存在的问题:

代码中的检查是否真正以系统假设的方式约束了值?

以一个常见模式为例:代码在渲染不可信内容之前调用类似 sanitize_html() 的函数。静态分析器可以看到净化器已运行,但它通常无法确定该净化器对于特定的渲染上下文、模板引擎、编码行为和下游转换是否真正充分

这就是问题变得棘手的地方。问题不仅仅是数据是否到达接收点,而是代码中的检查是否真正以系统假设的方式约束了值

换句话说:"代码调用了净化器" 与 "系统是安全的" 之间存在巨大差异

---

真实案例:解码前的验证陷阱


场景描述


以下是一个在真实系统中频繁出现的模式:

一个 Web 应用接收 JSON 负载,提取 redirect_url,使用白名单正则表达式验证它,然后进行 URL 解码,并将结果传递给重定向处理器。

经典 SAST 报告视角


传统的源到接收点报告可以描述数据流:

<br /> 不可信输入 → 正则检查 → URL 解码 → 重定向<br />

真正的问题


但真正的问题不是检查是否存在,而是该检查在后续转换之后是否仍然以重定向处理器解释的方式约束了解码后的 URL

如果正则表达式在解码之前运行,它是否真的约束了解码后的 URL?

回答这个问题意味着需要推理整个转换链:

  • 正则表达式允许什么?
  • 解码和规范化如何表现?
  • URL 解析如何处理边缘情况?
  • 重定向逻辑如何解析方案和权限?

    CVE-2024-29041 实例


    许多在实践中真正重要的漏洞看起来都是这样的:操作顺序错误、部分规范化、解析歧义、验证与解释之间的不匹配。数据流是可见的,弱点在于约束如何传播——或在转换链中如何失效传播

    这不仅仅是理论模式。在 [CVE-2024-29041](https://nvd.nist.gov/vuln/detail/CVE-2024-29041) 中,Express 受到开放式重定向问题的影响,格式错误的 URL 可以绕过常见的白名单实现,因为重定向目标在被编码后又被解释的方式存在问题。数据流是直接的,更难的问题——也是决定漏洞是否存在的问题——是验证在转换链之后是否仍然成立。

    ---

    Codex Security 的解决方案:从行为出发,然后验证


    核心目标


    Codex Security 围绕一个简单的目标构建:通过呈现带有更强证据的问题来减少分类工作

    技术实现


    在产品中,这意味着使用仓库特定的上下文(包括威胁模型),并在呈现问题之前在隔离环境中验证高信号问题

    当 Codex Security 遇到看起来像是"验证"或"净化"的边界时,它不会将其视为复选框。它会尝试理解代码试图保证什么——然后尝试证伪该保证

    在实践中,这往往表现为以下方式的组合:

    | 技术手段 | 描述 |
    |---------|------|
    | 深度代码分析 | 像安全研究员一样阅读相关代码路径,结合完整的仓库上下文,寻找意图与实现之间的不匹配。模型会阅读注释,但不一定相信注释——所以在代码上方添加 //Halvar says: this is not a bug 并不能混淆它,如果确实存在漏洞的话。 |
    | 问题切片 | 将问题简化为最小的可测试切片(例如,围绕单个输入的转换管道),以便在没有系统其余部分干扰的情况下进行推理。Codex Security 会提取微小的代码切片,然后为它们编写微模糊测试器。 |
    | 跨转换约束推理 | 跨转换推理约束,而不是独立处理每个检查。在适当情况下,这可以形式化为可满足性问题。换句话说,系统为模型提供带有 z3-solver 的 Python 环境,模型擅长在需要时使用它,就像人类在处理特别复杂的输入约束问题时必须做的那样。这对于查看整数溢出或非标准架构上的类似错误特别有用。 |
    | 沙箱验证 | 尽可能在沙箱验证环境中执行假设,以区分"这可能是个问题"和"这就是个问题"。没有什么比用调试模式编译的代码进行完整的端到端 PoC 更好的证明了。 |

    关键转变


    这是关键的转变:不是停留在"存在检查",而是系统推进到"不变式成立(或不成立),这里有证据"。模型会为该任务选择最佳工具。

    ---

    为何不以 SAST 报告为种子?


    合理的疑问


    一个合理的反应是:为什么不两者兼顾? 从 SAST 报告开始,然后使用智能体进行更深入的推理。

    在某些情况下,预计算的发现是有帮助的——特别是对于狭窄的、已知的错误类别。但对于一个旨在在上下文中发现和验证漏洞的智能体,从 SAST 报告开始会产生三种可预见的失败模式:

    失败模式一:过早狭窄化


    发现列表是工具已经查看过的地方的地图。如果你将其视为起点,你可能会使系统偏向于在同一区域使用相同的抽象花费不成比例的努力,错过不适合该工具世界观的漏洞类别。

    失败模式二:隐含判断难以撤销


    许多 SAST 发现编码了关于净化、验证或信任边界的假设。如果这些假设是错误的——或者只是不完整——将它们输入推理循环可能会使智能体从"调查"转变为"确认或驳回",这不是我们希望智能体做的事情。

    失败模式三:难以评估推理系统


    如果流水线从 SAST 输出开始,就很难将智能体通过自己的分析发现的内容与从其他工具继承的内容分开。如果我们想要准确测量系统的能力,这种分离很重要,而准确测量是系统随时间改进所必需的。

    OpenAI 的选择


    因此,OpenAI 将 Codex Security 构建为从安全研究开始的地方开始:从代码和系统的意图出发,使用验证来提高置信度门槛,然后再打断人类

    ---

    SAST 工具仍然非常重要


    适用范围


    SAST 工具在其设计的方面可以表现出色:

  • 执行安全编码标准
  • 捕获直接的源到接收点问题
  • 以可预测的权衡大规模检测已知模式
  • 作为纵深防御的强大组成部分

    本文的限定范围


    这篇文章的范围更窄:它是关于为什么一个旨在推理行为和验证发现的智能体不应该将其工作锚定在静态发现列表上。

    超越源到接收点思维


    还值得指出纯源到接收点思维的一个相关局限:并非每个漏洞都是数据流问题。许多真实的故障是状态和不变式问题——工作流绕过、授权缺口和"系统处于错误状态"的错误。对于这些类型的错误,受污染的值不会到达单个"危险接收点"。风险在于程序假设将永远为真的东西。

    ---

    未来展望


    OpenAI 期望安全工具生态系统持续改进:静态分析、模糊测试、运行时守卫和智能体工作流都将发挥作用

    Codex Security 希望擅长的部分是对安全团队成本最高的部分:将"这看起来可疑"转变为"这是真实的,这是它失败的方式,这是符合系统意图的修复方案"。

    ---

    参考资源


  • [Codex Security 官方文档](https://developers.openai.com/codex/security/)
  • [CVE-2024-29041 漏洞详情](https://nvd.nist.gov/vuln/detail/CVE-2024-29041)
  • [OpenAI Codex Security 研究预览](https://openai.com/index/codex ... review)

    ---

    总结


    | 传统 SAST | Codex Security 方法 |
    |----------|-------------------|
    | 从预定义规则出发 | 从代码行为和意图出发 |
    | 关注数据流追踪 | 关注约束传播和验证 |
    | 标记潜在问题 | 验证并证明问题 |
    | 可能产生大量误报 | 减少分类工作量 |
    | 依赖静态近似 | 结合动态验证 |

    Codex Security 代表了一种新的 AI 驱动安全分析范式:不是取代人类安全研究员,而是通过提供经过验证的、高置信度的问题发现来增强他们的能力,让他们将宝贵的时间花在真正需要人类判断的地方。

    ---

    本文基于 OpenAI 官方博客文章翻译整理,如有出入请以原文为准。

INFINI Labs 产品更新 | Easysearch 2.1.0 新增高性能 Rules 规则引擎插件,数据探索 Discover 等

EasysearchINFINI Labs 小助手 发表了文章 • 0 个评论 • 1192 次浏览 • 2 天前 • 来自相关话题


![release](https://infinilabs.cn/img/blog/release/banner.png)

INFINI Easysearch v2.1.0 发布:新增 Rules 规则引擎(百万级规则、复杂表达式、自动同步恢复)与 形态学分析插件(俄语/英语词形还原,提升搜索召回率);审计日志支持动态用户审计,UI 新增日志查看、配置及数据探索页面,运维更高效。INFINI Console、Gateway、Agent、Loadgen v1.30.3 统一基于 [Framework](https://docs.infinilabs.com/framework/) 升级,优化本地磁盘队列数据消费。详情见 Release Notes。

Easysearch v2.1.0


INFINI Easysearch 是一个分布式的搜索型数据库,实现非结构化数据检索、全文检索、向量检索、地理位置信息查询、组合索引查询、多语种支持、聚合分析等。Easysearch 可以完美替代 Elasticsearch,同时添加和完善多项企业级功能。Easysearch 助您拥有简洁、高效、易用的搜索体验。

Easysearch 本次更新如下:

🚀 功能特性 (Features)


  • 新增 Rules 规则引擎插件,提供高性能的规则匹配能力
    • 支持 linux-x64 和 linux-aarch64 架构
    • 支持 Ingest Pipeline 集成,数据写入时自动匹配规则并添加标签
    • 支持复杂的规则表达式(AND/OR/NOT、near、正则、数值范围等)
    • 支持百万级规则库,匹配性能是传统方案的上百倍。
    • 支持多节点集群自动同步和广播编译规则
    • 节点启动时自动同步缺失的规则库
    • 规则库同步期间自动保护写入,确保规则完整性
    • 本地元数据文件持久化记录编译历史,支持规则库文件丢失后的自动恢复
  • 新增形态学分析插件(analysis-morphology),支持俄语和英语的形态分析
    • 精准还原:基于词典将动词时态、名词格位等还原为标准原型(如 went → go)
    • 词元扩展:同时索引原词与关联词根(如runner → runner, run),实现智能搜索匹配
    • 高召回率:解决俄语复杂的变格与变位搜索难题,确保不同语法形式下均能精准检索
  • 审计日志新增动态指定用户进行审计的功能
  • UI 插件新增如下能力
  • 将“结巴”分词插件日志迁移至 Log4J,并降低周期性任务的日志级别以减少冗余

    🐛 问题修复(Bug Fixes)


  • 修复少量 UI 界面操作问题
    ![](https://infinilabs.cn/img/blog ... /1.png)
    ![](https://infinilabs.cn/img/blog ... /2.png)
    ![](https://infinilabs.cn/img/blog ... /3.png)

    Console v1.30.3


    INFINI Console 是一款开源的非常轻量级的多集群、跨版本的搜索基础设施统一管控平台。通过对流行的搜索引擎基础设施进行跨版本、多集群的集中纳管,企业可以快速方便的统一管理企业内部的不同版本的多套搜索集群。

    Console 本次详细更新记录如下:

    ✈️ 改进优化 (Improvements)


  • 此版本包含了底层 [Framework](https://docs.infinilabs.com/framework/) 的更新,解决了一些常见问题,并增强了整体稳定性和性能。虽然 Console 本身没有直接的变更,但从 Framework 中继承的改进间接地使 Console 受益。

    🐛 问题修复(Bug Fixes)


  • 修复 Agent 关联不成功问题

    Gateway v1.30.3


    INFINI Gateway 是一个开源的面向搜索场景的高性能数据网关,所有请求都经过网关处理后再转发到后端的搜索业务集群。基于 INFINI Gateway 可以实现索引级别的限速限流、常见查询的缓存加速、查询请求的审计、查询结果的动态修改等等。

    Gateway 本次更新如下:

    ✈️ 改进优化 (Improvements)


  • 此版本包含了底层 [Framework](https://docs.infinilabs.com/framework/) 的更新,解决了一些常见问题,并增强了整体稳定性和性能。虽然 Gateway 本身没有直接的变更,但从 Framework 中继承的改进间接地使 Gateway 受益。

    Agent v1.30.3


    INFINI Agent 负责采集和上传 Elasticsearch, Easysearch, Opensearch 集群的日志和指标信息,通过 INFINI Console 管理,支持主流操作系统和平台,安装包轻量且无任何外部依赖,可以快速方便地安装。

    Agent 本次更新如下:

    🚀 功能特性 (Features)


  • 在 Kubernetes 环境下通过环境变量 http.port 探测 Easysearch 的 HTTP 端口

    ✈️ 改进优化 (Improvements)


  • 此版本包含了底层 [Framework](https://docs.infinilabs.com/framework/) 的更新,解决了一些常见问题,并增强了整体稳定性和性能。虽然 Agent 本身没有直接的变更,但从 Framework 中继承的改进间接地使 Agent 受益。

    Loadgen v1.30.3


    INFINI Loadgen 是一款开源的专为 Easysearch、Elasticsearch、OpenSearch 设计的轻量级性能测试工具。

    Loadgen 本次更新如下:

    ✈️ 改进优化 (Improvements)


  • 此版本包含了底层 [Framework](https://docs.infinilabs.com/framework/) 的更新,解决了一些常见问题,并增强了整体稳定性和性能。虽然 Loadgen 本身没有直接的变更,但从 Framework 中继承的改进间接地使 Loadgen 受益。

    更多详情请查看以下各产品的 Release Notes 或联系我们的技术支持团队!

  • [Coco AI App](https://docs.infinilabs.com/co ... notes/)
  • [Coco AI Server](https://docs.infinilabs.com/co ... notes/)
  • [INFINI Easysearch](https://docs.infinilabs.com/ea ... earch/)
  • [INFINI Gateway](https://docs.infinilabs.com/ga ... notes/)
  • [INFINI Console](https://docs.infinilabs.com/co ... notes/)
  • [INFINI Agent](https://docs.infinilabs.com/ag ... notes/)
  • [INFINI Loadgen](https://docs.infinilabs.com/lo ... notes/)
  • [INFINI Framework](https://docs.infinilabs.com/fr ... notes/)

    期待反馈


    欢迎下载体验使用,如果您在使用过程中遇到如何疑问或者问题,欢迎前往 INFINI Labs Github(<https://github.com/infinilabs>;) 中的对应项目中提交 Feature Request 或提交 Bug。

    下载地址: <https://infinilabs.cn/download>;

    邮件hello@infini.ltd

    电话(+86) 400-139-9200

    Discord:<https://discord.gg/4tKTMkkvVX>;

    也欢迎大家微信扫码添加小助手(INFINI-Labs),加入用户群一起讨论交流。

    ![](https://infinilabs.cn/img/blog ... us.png)

    关于极限科技(INFINI Labs)


    ![INFINI Labs](https://infinilabs.cn/img/blog ... bs.png)

    极限科技,全称极限数据(北京)科技有限公司,是一家专注于实时搜索与数据分析的软件公司。旗下品牌极限实验室(INFINI Labs)致力于打造极致易用的数据探索与分析体验。

    极限科技是一支年轻的团队,采用天然分布式的方式来进行远程协作,员工分布在全球各地,希望通过努力成为中国乃至全球企业大数据实时搜索分析产品的首选,为中国技术品牌输出添砖加瓦。

    官网:<https://infinilabs.cn>;

从模型到智能体:OpenAI Responses API 计算机环境完整解析

AI 搜索ai_insider 发表了文章 • 0 个评论 • 1178 次浏览 • 2 天前 • 来自相关话题

编者按:随着 AI 从单一任务执行者向复杂工作流处理者演进,OpenAI 最新推出的 Responses API 计算机环境为开发者提供了构建生产级智能体的完整基础设施。本文深入解析其架构设计与核心机制。引言:AI 范式的转变
我们正处于 AI 使用的重大转折点——从擅长特定任务的模型能够处理复杂工作流的智能体(Agent)转变。
传统上,通过提示词(Prompting)只能访问模型训练时获得的智能。然而,当给模型配备一个计算机环境后,它能实现更广泛的用例:运行服务、从 API 请求数据、生成电子表格或报告等更有用的产物。
但在构建智能体时,开发者面临诸多实际问题:
  • 中间文件存放在哪里?
  • 如何避免将大表格粘贴到提示词中?
  • 如何在不造成安全噩梦的情况下给工作流提供网络访问?
  • 如何处理超时和重试,而无需自己构建工作流系统?

OpenAI 的解决方案是:为 Responses API 配备计算机环境,让平台来可靠地执行真实世界的任务。核心架构:五大组件协同工作
OpenAI 的 Responses API 与 Shell 工具、托管容器工作空间相结合,旨在解决这些实际问题:
模型提出步骤和命令,平台在隔离环境中执行它们,该环境配备文件系统(用于输入输出)、可选的结构化存储(如 SQLite)和受限的网络访问。Shell 工具:智能体的"手"
Shell 工具让模型的能力呈指数级增长:它通过命令行与计算机交互,执行从文本搜索到发送 API 请求的广泛任务。
基于熟悉的 Unix 工具链,Shell 工具开箱即用就支持 grep、curl、awk 等命令。相比现有的代码解释器(仅执行 Python),Shell 工具支持更广泛的用例:运行 Go 或 Java 程序、启动 NodeJS 服务器、执行任意系统命令。智能体循环的编排机制
模型本身只能提出 Shell 命令,但命令如何执行?需要一个编排器(Orchestrator)来获取模型输出、调用工具,并将工具响应传回模型,形成循环直到任务完成。
Responses API 的执行流程:
  1. 组装上下文:用户提示词 + 历史对话状态 + 工具指令
  2. 模型决策:决定下一步动作(如选择 Shell 执行)
  3. 命令转发:Responses API 服务将命令转发到容器运行时
  4. 流式输出:Shell 输出流式返回,并反馈到下一次请求的上下文
  5. 结果检查:模型检查结果,发出后续命令或生成最终答案
  6. 循环直到完成

上下文压缩:长任务的关键
智能体循环的一个潜在问题是任务可能运行很长时间。长时间运行的任务会填满上下文窗口。
为了避免在智能体继续运行时丢失重要上下文,Responses API 添加了原生压缩(Compaction)功能:


OpenAI 的最新模型经过训练,能够分析先前的对话状态,并生成一个压缩项(Compaction Item),以加密的、token 高效的形式保留关键先前状态。


Codex 就依赖这一机制来维持长时间运行的编码任务和迭代工具执行,而不会降低质量。容器上下文:状态与资源管理
容器不仅是运行命令的地方,也是模型的工作上下文。在容器内部,模型可以读取文件、查询数据库、在网络安全策略控制下访问外部系统。网络安全访问
网络访问是智能体工作负载的重要组成部分,但给容器无限制的网络访问存在风险。OpenAI 的解决方案是 Sidecar Egress 代理
所有出站网络请求流经集中式策略层,强制执行允许列表(Allowlist)、实施访问控制、保持流量可观察。Agent Skills:可复用的工作流构建块
Shell 命令很强大,但许多任务重复相同的多步骤模式。Agent Skills 将这些模式打包成可复用、可组合的工作流构建块。
一个 Skill 是一个文件夹包,包含 SKILL.md(元数据和指令)以及支持资源(API 规范、UI 资产等)。结语


"语言模型的意义不仅仅是生成文本、图像和音频——我们将继续发展我们的平台,使其更能够大规模处理复杂的真实世界任务。"


Responses API 计算机环境的推出,标志着 AI 从"对话工具"向"行动智能体"的关键转变。对于搜索和 AI 领域的从业者而言,这一架构设计提供了宝贵的参考:如何将大模型的推理能力与可靠的执行环境相结合,打造真正有用的自动化系统。
原文来源OpenAI Engineering Blog
作者:Bo Xu, Danny Zhang, Rohit Arunachalam
发布日期:March 11, 2026

日本乐天集团用 Codex 将问题修复速度提升一倍

AI 搜索ai_insider 发表了文章 • 0 个评论 • 1189 次浏览 • 2 天前 • 来自相关话题

日本乐天集团用 Codex 将问题修复速度提升一倍


原文来源:[OpenAI Blog](https://openai.com/index/rakuten/)
发布时间:2025年3月

引言


乐天(Rakuten)是日本最大的电商平台之一,业务涵盖电子商务、金融科技和移动通信,拥有 30,000 名全球员工。在这样庞大而复杂的产品生态系统中,速度可靠性都是至关重要的。

乐天 AI for Business 总经理 Yusuke Kaji 在过去一年里一直致力于将 AI Agent 工作流深度整合到团队的软件规划、构建和验证流程中。OpenAI Codex 已成为乐天工程栈的核心组成部分,特别是在需要在不牺牲安全性的前提下提升速度的场景中。

---

核心成果:MTTR 降低 50%


在过去一年中,乐天工程师在运维和软件交付流程中广泛使用 Codex,取得了显著成效:

| 指标 | 改进效果 |
|------|---------|
| 平均恢复时间(MTTR) | 降低约 50% |
| 项目交付周期 | 从季度级压缩到周级 |
| 代码审查效率 | CI/CD 中自动完成 |
| 漏洞检查 | 自动化安全检测 |

"我们不只是关心快速生成代码,我们更关心安全地交付。没有安全性的速度不是成功。" —— Yusuke Kaji

---

三大核心战略


乐天的 AI 战略围绕三个明确的目标展开:

1. 构建更快("Speed!! Speed!! Speed!!")


在运维工作流中使用 Codex,包括基于 KQL(Azure 日志查询语言)的监控和诊断,加速根因分析和修复,将 MTTR 压缩高达 50%。

2. 构建更安全("Get things done")


在 CI/CD 流程中调用 Codex 进行代码审查和漏洞检查,自动应用内部标准,让团队能在有防护栏的情况下快速交付。

3. 更智能地运营("AI-nization")


Codex 推动更大规模、更模糊的项目从规范走向可工作的实现,减少对完美定义需求的依赖,实现更自主的执行,最终将季度级的工作压缩到周级。

---

实战案例


案例一:压缩事故响应时间


乐天的工程师使用 KQL 监控 API 和分析信号。Codex 与这些工作流协同工作,帮助识别根因并提出修复建议,缩短从告警到解决的时间。

站点可靠性工程(SRE)的角度来看,这缩短了从检测到修复的路径。工程师不再需要手动拼凑查询、日志和补丁,而是可以专注于验证和部署修复方案。

结果:乐天估计这种方法可以将 MTTR 降低约 50%——换句话说,当出现问题时,修复速度快了一倍。

案例二:CI/CD 中的自动化安全检查


随着交付速度加快,审查和部署可能成为瓶颈。乐天通过将 Codex 直接集成到 CI/CD 管道中来解决这个问题。

Codex 在变更到达生产环境之前进行代码审查和漏洞检查。乐天的做法是将内部编码原则和标准输入到这些工作流中,确保审查符合公司期望。

"我们将内部编码原则提供给 Codex,它使用相同的原则来审查代码是否符合我们的标准。" —— Yusuke Kaji

结果:安全检查一致且自动地进行,使团队能够在不降低标准的情况下更快前进。

案例三:从单条规范到全栈实现


乐天的第三个优先事项——AI-nization——专注于自主性。Codex 不仅用于审查和维护,还用于端到端执行更大规模、更模糊的项目。

Codex 可以从部分需求出发推进工作并生成可用的交付物,而不需要完美定义的规范。

"最新的 Codex 模型能够读懂言外之意,即使需求没有完美定义,它也能理解我们要构建什么。" —— Yusuke Kaji

具体案例:构建一个现有基于 Web 的 AI Agent 服务的移动应用版本。Codex 实现了完整的规范,包括:

  • 后端:Python/FastAPI
  • 前端:Swift/SwiftUI iOS 应用
  • API:所有后端接口

    整个过程无需逐步人工指导,Codex 将项目开发时间从一个季度缩短到几周

    ---

    工程师角色的转变


    随着 Codex 承担更多代码生成工作,乐天正在将工程师的角色从编写代码转变为:

    1. 编写更清晰的规范
    2. 根据可衡量的标准验证输出

      "我们的角色不再是检查每一行代码,我们的角色是清晰地定义我们想要什么,并建立验证它的方法。" —— Yusuke Kaji

      乐天通过在全工程、产品和非技术团队中开展实践研讨会来支持这一转变——使 Codex 在帮助团队更快交付、更安全运营和在整个组织内扩展自主开发方面发挥核心作用。

      ---

      总结


      乐天集团的实践展示了 AI 编码助手在企业级场景中的巨大潜力:

  • 速度:事故修复时间缩短 50%
  • 安全:CI/CD 中自动化的代码审查和漏洞检测
  • 自主性:从模糊需求到完整实现,开发周期从季度缩短到周
  • 角色转变:工程师从编码者变为规范制定者和验证者

    对于正在考虑引入 AI 编码助手的企业来说,乐天的经验提供了宝贵的参考:不仅要关注代码生成速度,更要建立相应的安全检查和验证机制,让 AI 成为提升整体工程效能的可靠伙伴。

    ---

    相关链接


  • [OpenAI Codex 官网](https://openai.com/codex/)
  • [乐天集团官网](https://www.rakuten.com/)
  • [Azure KQL 查询语言文档](https://docs.microsoft.com/en- ... query/)

OpenAI 发布 AI Agent 安全防护指南:如何抵御提示词注入攻击

AI 搜索ai_insider 发表了文章 • 0 个评论 • 1205 次浏览 • 2 天前 • 来自相关话题

随着 AI Agent 能力的不断增强,它们正在承担越来越复杂的任务——从浏览网页、检索信息到代表用户执行操作。然而,这些强大能力也带来了新的安全风险:提示词注入攻击(Prompt Injection)正成为 AI 系统面临的最严峻挑战之一。
OpenAI 最新发布的安全博客深入探讨了这一问题的演变,并提出了一套基于"社会工程学"视角的防御框架。提示词注入攻击的演变
早期的提示词注入攻击相对简单直接。攻击者可能在网页中插入恶意指令。然而,随着模型智能水平的提升,现实中的提示词注入攻击正在向更复杂的形态演进——它们越来越像社会工程学攻击。新的防御范式
OpenAI 提出了一个关键认知转变:与其追求完美识别所有恶意输入,不如设计系统使得即使操纵成功,其影响也能被控制在可接受范围内。Safe URL 机制
针对诱导助手泄露秘密信息的攻击,OpenAI 开发了 Safe URL 机制:检测可疑传输、向用户展示信息并请求确认、必要时阻断传输。给开发者的建议
  • 采用"人类代理"思维
  • 分层防御
  • 最小权限原则
  • 关键操作需用户确认

原文来源OpenAI Security Blog