Trending

#SLM

Latest posts tagged with #SLM on Bluesky

Latest Top
Trending

Posts tagged #SLM

Preview
Service Level Management - SLM Nutzen und Vorteile von Service Level Management

Service Level Management - SLM #slm #sla #vereinbarungen #servicelevel #IT

0 0 0 0
Preview
エッジAI×SLMで推論コストを最適化する最新戦略【2025年版】 | 読者層 | 押さえるべきポイント | 予想されるアクション | | CEO | クラウドでのAI推論コストは利用増加に比例して膨らみ、利益を圧迫するリスクがあります。今後のAI活用において、コスト構造の見直しは避けられません。 | エッジAIの導入により、ROIを高める可能性があります。NPU搭載デバイスやハイブリッド基盤への投資検討を進めましょう。 | | CTO | SLMの最適化により、スマートフォンやJetsonなどの小型デバイスでも、実用的な速度で動作する小型モデルが登場しています。(参考: 推論高速化技術) | 軽量化されたSLM(例:Gemma, Qwen)を使い、エッジデバ

AI推論のクラウド依存はコストと電力の死刑宣告に等しい。軽量SLMとNPU搭載デバイスによるエッジAIへの移行こそ利益最大化の鍵だ。量子化や蒸留技術でGPT-3.5級の性能がスマホで完結する今、クラウド一辺倒の戦略は再考すべき転換点にある。

#エッジAI #SLM

0 0 0 0
Preview
Sallie Mae Announces $200 million Accelerated Share Repurchase Sallie Mae (Nasdaq: SLM) entered a $200 million accelerated share repurchase (ASR) with Goldman Sachs, to be prefunded March 10, 2026, under its $500 million board-authorized repurchase program.Combined with prior repurchases this quarter, first-quarter repurchases and commitments total nearly $300 million. Final shares depend on VWAP less a discount and customary adjustments; transactions are expected to complete before the end of Q2 2026.

#SLM Sallie Mae Announces $200 million Accelerated Share Repurchase

www.stocktitan.net/news/SLM/sallie-mae-anno...

0 0 0 0
Preview
Small models, high quality: Inside BMW Group’s experiments evaluating domain-specific language models Automakers are striving to incorporate AI into vehicles for more natural voice commands, but large language models (LLMs) have limitations due to their need for consistent internet access. BMW and Google Cloud collaborated to develop a solution for deploying efficient, domain-specific small language models (SLMs) in cars. SLMs offer a balance between size and capability for in-vehicle use, addressing the constraints of limited computing power. The challenge lies in optimizing SLMs, requiring compression, fine-tuning, and robust evaluation for automotive tasks, and it involves finding the optimal configuration. An automated workflow was created to streamline SLM optimization, automating compression, adaptation, and evaluation using Vertex AI Pipelines. This pipeline enables systematic exploration of configurations, making experimentation and evaluation efficient and reproducible. It includes versioning, optimization, deployment testing, and comprehensive evaluation components. The pipeline uses various compression and enhancement methods tailored to specific hardware. The process results in a deployable, versioned SLM with detailed performance metrics, ensuring complete reproducibility and facilitating efficient testing. The project showcases how automated workflows improve the development and optimization of AI in the automotive industry.

Small models, high quality: Inside BMW Group’s experiments evaluating domain-specific language models

Automakers are striving to incorporate AI into vehicles for more natural voice commands, but large language models (LLMs) have limitations due to their need for c…

Telegram AI Digest
#ai #llm #slm

0 0 0 0
Video

Starmer okays US strikes from UK bases on Iran sites post-RAF Akrotiri hit. Escalation alert.

Video created using AI avatar and real voice for news delivery.

#Starmer #Iran #UKBases #SLM

0 0 0 0
Preview
Small Language Models: construyendo la arquitectura de las nuevas redacciones Durante los últimos años, la carrera de la Inteligencia Artificial parecía regirse por la regla de que cuanto más grande sea el modelo de lenguaje, mejor. Sin embargo, estamos entrando en una fase de madurez, en la que el foco del mercado se desplaza desde la escala hacia la eficiencia, la especialización y el control de costes. **Según Gartner**, las organizaciones, que necesitan una mayor eficiencia en tareas ordinarias pero un menor coste operativo, utilizarán los modelos de IA específicos hasta tres veces más que los modelos generalistas. En este contexto, los Small Language Models (SLM) pueden convertirse en una pieza clave dentro de la arquitectura de IA de las organizaciones en general, y las de medios en particular. A diferencia de los modelos fundacionales de gran escala, entrenados con billones de parámetros y que requieren infraestructuras masivas en la nube, los SLM se caracterizan por su especialización funcional y menor demanda computacional. Normalmente se trata de modelos basados en **_arquitecturas transformer_** con tamaños que oscilan entre cientos de millones y hasta varios miles de millones de parámetros (habitualmente por debajo de los 10B). Desde un punto de vista estratégico, la diferencia es sustancial, ya que los SLM sacrifican cobertura generalista a cambio de un rendimiento óptimo, al tiempo que ofrecen menor latencia y mayor control sobre los datos, privacidad reforzada y un coste operativo significativamente inferior. Mientras que un LLM suele implicar elevados gastos en infraestructura, computación y llamadas constantes a APIs externas, los SLM pueden ejecutarse localmente en servidores propios, en portátiles o incluso dispositivos móviles, evitando que los datos salgan de la organización. Una de las claves técnicas que permiten este salto de eficiencia es la **cuantización**, una técnica que reduce la precisión numérica de los parámetros del modelo (por ejemplo, de 16 a 8 bits). Esto puede hacer que el modelo sea hasta cuatro veces más ligero y requiera mucha menos memoria, manteniendo un rendimiento muy cercano al original en ciertas tareas. Esta técnica es uno de los enfoques principales dentro de lo que se conoce como **_model compression,_** que incluye también otras soluciones tecnológicas como el _pruning_ y _distillation_. Es decir, la competitividad real de los SLM se logra combinando varias técnicas de optimización, ampliamente documentadas en estudios comparativos de **eficiencia y rendimiento**: * Cuantización: reduce la precisión numérica de los pesos del modelo, disminuyendo de forma significativa el consumo de memoria y mejorando la velocidad de inferencia, con una pérdida mínima de exactitud en tareas bien definidas . * Pruning (poda):identifica y elimina conexiones con baja contribución al resultado final, compactando el modelo y acelerando su ejecución. * Knowledge Distillation (destilación de conocimiento): un LLM actúa como “**profesor” y transfiere su comportamiento** a un modelo más pequeño. El resultado puede ser un SLM que conserve gran parte del rendimiento del modelo original, pero con una reducción considerable del coste de computación. En el sector de los medios, estas características pueden ofrecer soluciones antes inviables por coste, latencia o riesgos de privacidad. Entre los posibles casos extrapolables estarían la revisión de contratos confidenciales, el filtrado de contenido sensible y la implementación de **guardrails o salvaguardas de IA** en entornos locales, lo que garantiza que la propiedad intelectual y los datos internos no se utilicen para entrenar modelos de terceros. Desde una perspectiva editorial y operativa, los SLM pueden funcionar como asistentes de código para equipos técnicos, sistemas de enrutamiento automático de tickets de soporte o como componentes clave en arquitecturas de búsqueda avanzada. En escenarios de **Agentic RAG**, los SLM pueden pre-procesar consultas, reescribirlas de forma contextual e inteligente y mejorar de manera significativa la recuperación de información en archivos históricos propios. Por otra parte, son cada vez más las organizaciones que están adoptando estrategias de Intelligent Routing. En este enfoque, un módulo analiza la complejidad de cada consulta: si se trata de tareas sencillas como clasificación, extracción de datos o reformulación, el sistema recurre a un SLM. Solo cuando la tarea requiere razonamiento profundo o generación compleja se activa un LLM de gran escala. En despliegues bien optimizados, esta aproximación puede reducir la latencia de respuesta de segundos a cientos de milisegundos y disminuir los costes operativos de forma sustancial. La gran apuesta estratégica para el sector de los medios no consiste únicamente en que los redactores utilicen herramientas de IA, sino en diseñar una arquitectura tecnológica propia que permita crear valor a partir de la riqueza de sus datos, su conocimiento editorial y las capacidades periodísticas de la redacción. En ese diseño, los Small Language Models no son un complemento, sino un bloque estructural fundamental. Por favor, deja este campo vacío ## **Newsletter** Recibe nuestra newsletter semanal Acepto la Política de Privacidad Revisa tu bandeja de entrada o la carpeta de spam para confirmar tu suscripción.

Small Language Models #SLM): construyendo la arquitectura de las nuevas #redacciones digitaljourney.es/small-language-models-co...
Fuente https://t.me/mediosliquidos

0 0 0 0
Post image

Geometry > Scale: Как 40М параметров на решетке E8 обходят классические трансформеры Ребята, кажется, мы уперлись в ...

#llm #E8 #transformer #transformers #edgeai #slm

Origin | Interest | Match

0 0 0 0
Bare chested leather cub flashing his pit, next to him a guy in a bulldog harness similing brightly

Bare chested leather cub flashing his pit, next to him a guy in a bulldog harness similing brightly

Looks like @blackarmor95.bsky.social and I will be attending #SLM Stockholm's #Domination this year 😈
Who else is coming and wants to show us the city? 😏

Post spanking bliss pic of us for attention 😜

52 2 1 0
Preview
Fortifying Intelligent Systems with Optimum Protection Strategies for LLMs and SLMs ecuring large and small language models against data leakage, adversarial manipulation, model theft, and supply chain compromise

⚙️ Large Language Models and Small Language Models are transforming Enterprise operations — but their security posture determines their future.
Fortify before you scale 🔐.
#Cybersecurity #AIsecurity #LLM #SLM #AIgovernance #ZeroTrust #CyberLens

www.thecyberlens.com/p/fortifying...

1 0 0 0
Post image Post image Post image

Mit Lola im Suermondt Ludwig #SLM #peoplematchingartworks

0 0 0 0
Video

Fact checking claims on Gaza casualties, US military aid and Israeli policy. Context and definitions matter.

#SLM #FactCheck #Gaza

0 0 0 0
Azure SLM Showdown: Evaluating Phi-3, Llama 3, and Snowflake Arctic for Production In the rapidly evolving landscape of Generative AI, the industry is witnessing a significant shift. While the “bigger is better” mantra once dominated, the tide is turning. As organizations move from experimental pilots to production-grade applications, the focus has shifted toward small language models (SLMs). These models offer lower latency, reduced compute costs, and the ability to run on edge devices, while maintaining performance that rivals massive models like GPT-4 for specific tasks. Microsoft Azure has positioned itself as a premier destination for these models, offering them through the Model-as-a-Service (MaaS) framework and the Azure AI Model Catalog. In this article, we provide a technical deep dive into three of the most prominent SLMs available on Azure: Microsoft’s Phi-3, Meta’s Llama 3 (8B), and Snowflake Arctic. We analyze their architectures, benchmark performance, deployment strategies, and cost efficiency to help you decide which model best fits your workload.

Azure SLM Showdown: Evaluating Phi-3, Llama 3, and Snowflake Arctic for Production

In the rapidly evolving landscape of Generative AI, the industry is witnessing a significant shift. While the “bigger is better” mantra once dominated, the tide is turning. As or…

Telegram AI Digest
#gpt #llama #slm

0 0 0 0
Azure SLM Showdown: Evaluating Phi-3, Llama 3, and Snowflake Arctic for Production

Битва больших языковых моделей Azure: оценка Phi-3, Llama 3 и Snowflake Arctic для производства

В быстро меняющемся ландшафте генеративного ИИ отрасль наблюдает значительные изменения. В то время как мантра "больше - лучше" когда-то доминировала, ситуация меня…

Telegram ИИ Дайджест
#ai #llama #slm

0 0 0 0
Video

Dormant or active?
We review official UK filings and DOJ referenced documents that raise questions about a company classified as dormant.
Screenshots and receipts shown in the video.

Video created using AI avatar and real voice for news delivery.

#SLM #InvestigativeJournalism #CompanyRecords

0 0 0 0
Preview
Spatial Light Modulator Market Growth, Share Report and Trends 2035 Spatial Light Modulator Market is projected to reach USD 9.114 Billion at a CAGR of 6.69% by 2035, Global Spatial Light Modulator Industry Research Report Growth By Type, Size, Application

Spatial Light Modulator Market Trends Analysis, Sales Revenue, Competitive Landscape and Market Expansion Strategies 2035
www.marketresearchfuture.com/reports/spat...

#SpatialLightModulatorMarket #SLM #DisplayTech #OpticalTech

0 0 0 0
Video

Epstein files back under scrutiny. Lawmakers question DOJ compliance with the Transparency Act after claims of extensive redactions in oversight hearing testimony.

Video created using AI avatar and real voice for news delivery.

#EpsteinFiles #Accountability #SLM

0 0 0 0
Preview
Poem 790 – En Route Gridlocked motorwaysStormy weather past StonehengeWinding country lanes Praying the roads are clearDodging pot holes and branchesDon’t make me reverse! Battery running lowHoping that the char…

Poem 790 - En Route
Every kind of road
odefortheday.art/2026/02/12/p...
#Poetry #Driving #EVAdventures #SLM #Haiku

0 0 0 0
Preview
Poem 789 – Driving to Africa Tomorrow I’ll beDreaming of African skiesRemembering friends Tomorrow I’m heading off to join friends in the Sierra Leone Mission to reflect on their vision for the future – bring…

Poem 789 - Driving to Africa
Revisiting a 'past life'
odefortheday.art/2026/02/11/p...
#Poetry #SierraLeoneMission #SLM #SierraLeone

1 0 0 0

Built for teams shipping AI in production. Bring your use cases and questions.

🔗 Register: luma.com/qbb8w9en

Hosted by Neurometric AI
#AI #MachineLearning #SLM #MLOps

0 0 0 0
Video

New to Claude Cowork? No problem. They now have plugins! Not sure how they work? Check out our livestream from Thursday where we guide you through it.

Link in bio

#claude #claudecowork #claudeplugins #AIplugin #ai #aiprogram #aimodel #llm #slm #career #aicareer #jobs #aijob

1 0 0 0

📈AI Market CAGR: Overall AI to grow 26.6%-41.95% CAGR, USD 375B-434B (2026)→USD 2.5T (2031-34)
💡Key Sectors: Multimodal AI: 36%, Quantum AI: 35.1%, AI in Transport: up to 22.7%, SLM: 15.1%
#AIgrowth #AIMarket #MultimodalAI #QuantumAI #TransportAI #SLM
View in Timelines

0 0 0 0
Preview
釋放 NPU 潛能:SLM 與異質整合協同設計下的混合 AI 架構轉型 * * 此文與拓墣產業研究院合作,轉載內容為部分精華,欲購買完整報告請洽拓墣官網 本篇文章將帶你了解 : * 邊緣推論需求驅動SLM與異質整合架構同步發展 * 混合AI架構的模型與硬體協同設計將成發揮NPU效能關鍵 推論逐步由雲端轉移至邊緣端,雖 LLM 具更優秀的通用理解能力,但也面臨雲端集中式運算架構挑戰,包含延遲問題與隱私風險,驅動小型語言模型與硬體效能架構同步創新,並形成混合 AI 運算模式。 本篇文章將帶你了解 : * 邊緣推論需求驅動SLM與異質整合架構同步發展 * 混合AI架構的模型與硬體協同設計將成發揮NPU效能關鍵 從這裡可透過《Google 新聞》追蹤 TechNews * * * 科技新知,時時更新 科技新報粉絲團 加入好友 訂閱免費電子報 * * * 關鍵字: AI , NPU , SLM , 邊緣 AI

釋放 NPU 潛能:SLM 與異質整合協同設計下的混合 AI 架構轉型 推論逐步由雲端轉移至邊緣端,雖 LLM 具更優秀的通用理解能力,但也面臨雲端集中式運...

#AI #人工智慧 #GPU #技術分析 #會員專區 #處理器 #AI #NPU #SLM #邊緣 #AI

Origin | Interest | Match

0 0 0 0
Preview
Frontiers | Small language models applied in text summarization task of health-related news to improve public health audit: an experimental case study ContextFraud and corruption are among the main crimes affecting public institutions, with the healthcare sector being particularly vulnerable due to its stru...

My article, titled "Small language models applied in text summarization task of health-related news to improve public health audit: an experimental case study" has just been published in Frontiers in Artificial Intelligence.

doi.org/10.3389/frai...

#nlp #nlproc #llm #slm

0 0 1 0
Post image

LLM or SLM? 🤔 Choosing the right tool is key for GenAI apps.

Dom Couldwell breaks down when to start small, go large, or mix it up for Agentic AI.

Read here 👉 devm.io/machine-learning/gen-ai-...

#MLcon #GenerativeAI #LLM #SLM #AIEngineering #AgenticAI #MachineLearning

0 1 0 0
Preview
GitHub - Knowledgator/GLinker: Efficient and scalable zero-shot entity linking Efficient and scalable zero-shot entity linking . Contribute to Knowledgator/GLinker development by creating an account on GitHub.

GLiNKER - #EntityLinking Framework by Knowledgator
transforms raw text into structured, disambiguated entity mentions. Built around #GLiNER - a family of lightweight, generalist models for information extraction.
#Graph #GraphRAG #RAG #AI #LLM #SLM #NER
Apache 2.0 lic

github.com/Knowledgator...

1 0 0 0
Preview
GitHub - Knowledgator/FlashDeBERTa: Trully flash implementation of DeBERTa disentangled attention mechanism. Trully flash implementation of DeBERTa disentangled attention mechanism. - Knowledgator/FlashDeBERTa

Popular #DeBERTa model gets updated with FlashAttention by Knowledgator

🔹2–5× efficiency gains compared to the torch implementation of DeBERTa
🔹Lower memory footprint
🔹Support of backward
Apache 2.0 lic

#BERT #AI #SLM #LLM #OpenSource
github.com/Knowledgator...

2 0 0 0
Post image

[Перевод] Как сделать (очень) маленькие LLM действительно полезными Команда AI for Devs подготовила перевод стат...

#llm #slm #rag #embeddings #docker

Origin | Interest | Match

0 0 0 0
Как сделать (очень) маленькие LLM действительно полезными

Как сделать (очень) маленькие LLM действительно полезными Команда AI for Devs подготовила перевод статьи о том, к...

#docker #embeddings #llm #rag #SLM

Origin | Interest | Match

0 0 0 0
Post image



#SLM #4d098c73-c035-40d4-891f-200114150760 #earningscall-transcripts

Origin | Interest | Match

0 0 0 0
Preview
Sallie Mae Reports Fourth Quarter and Full-Year 2025 Financial Results Sallie Mae (Nasdaq: SLM) released fourth-quarter and full-year 2025 financial results and will host an earnings call on Jan. 22, 2026 at 5:30 p.m. ET with a webcast and replay available on the investor website. The Board authorized a new $500 million share repurchase program beginning Jan. 22, 2026, expected to be completed over ~24 months ending Feb. 4, 2028. The company's prior $650 million 2024 repurchase program remains open until Feb. 6, 2026 or until expended. Repurchases may occur via tender offers, open market purchases, accelerated repurchases, negotiated/block purchases, or 10b5-1/trading plans; timing and amounts are at management's discretion.

#SLM Sallie Mae Reports Fourth Quarter and Full-Year 2025 Financial Results

www.stocktitan.net/news/SLM/sallie-mae-repo...

0 0 0 0