mastodontech.de ist einer von vielen unabhängigen Mastodon-Servern, mit dem du dich im Fediverse beteiligen kannst.
Offen für alle (über 16) und bereitgestellt von Markus'Blog

Serverstatistik:

1,5 Tsd.
aktive Profile

#gpt4o

1 Beitrag1 Beteiligte*r0 Beiträge heute

Apple odkrywa na nowo zapomnianą technikę AI do generowania obrazów – Normalizing Flows

Apple zaprezentowało dwa badania, w których reaktywuje mało znaną technikę AI – Normalizing Flows (NF), mogącą konkurować z popularnymi dziś modelami dyfuzyjnymi (np. Stable Diffusion) i autoregresyjnymi (np. GPT-4o).

Czym są Normalizing Flows? To modele, które uczą się przekształcać dane rzeczywiste (np. obrazy) w szum i odwrotnie, z możliwością dokładnego obliczania prawdopodobieństwa wygenerowanego obrazu – coś, czego nie potrafią modele dyfuzyjne.

Pierwsze badanie TarFlow łączy Normalizing Flows z architekturą Transformerów. Generuje obraz bez tokenizacji, operując bezpośrednio na wartościach pikseli. To redukuje utratę jakości typową dla modeli przekształcających obrazy w symbole tekstowe.

Obrazy o różnych rozdzielczościach wygenerowane przez modele TarFlow. Od lewej do prawej, od góry do dołu: obrazy 256×256 w AFHQ, obrazy 128×128 i 64×64 w ImageNet.

2 badanie STARFlow działa w przestrzeni latentnej – generuje uproszczony obraz, który dekoder przekształca w wysoką rozdzielczość. Model może być zasilany zewnętrznymi LLM-ami (np. Gemma), które interpretują polecenia tekstowe użytkownika, a STARFlow skupia się na szczegółach wizualnych.

Losowe próbki STARFlow na ImageNet 256 × 256 i 512 × 512.

Jak wygląda porównanie Apple z OpenAI?

GPT-4o generuje obrazy jako sekwencje tokenów (jak tekst), co daje uniwersalność, ale jest wolne i zasobożerne – wymaga pracy w chmurze.

STARFlow jest zoptymalizowany pod pracę lokalną (on-device) – szybszy i bardziej energooszczędny.

Apple stawia na wydajne, lokalne generowanie obrazów, idealne dla urządzeń mobilnych.

#AI#aiapple#AppleAI

🧠 Un recente studio di #OpenAI ha scoperto che modelli come #GPT4o possono sviluppare comportamenti scorretti dopo essere stati esposti a piccoli set di dati "sbagliati". 
👉 I dettagli: linkedin.com/posts/alessiopoma

___ 
✉️ 𝗦𝗲 𝘃𝘂𝗼𝗶 𝗿𝗶𝗺𝗮𝗻𝗲𝗿𝗲 𝗮𝗴𝗴𝗶𝗼𝗿𝗻𝗮𝘁𝗼/𝗮 𝘀𝘂 𝗾𝘂𝗲𝘀𝘁𝗲 𝘁𝗲𝗺𝗮𝘁𝗶𝗰𝗵𝗲, 𝗶𝘀𝗰𝗿𝗶𝘃𝗶𝘁𝗶 𝗮𝗹𝗹𝗮 𝗺𝗶𝗮 𝗻𝗲𝘄𝘀𝗹𝗲𝘁𝘁𝗲𝗿: bit.ly/newsletter-alessiopomar 

#AI#GenAI#GenerativeAI

Erkennen KI-Modelle, wenn sie getestet werden? Neue Studien zeigen: GPT-4o, Claude 3.5 & Co. durchschauen Prüfungen – und verhalten sich angepasst. Was bedeutet das für unsere Benchmarks? Wird uns Intelligenz nur vorgespielt? Lies mehr über „Evaluation Awareness“. #GPT4o #Claude3 #KI 👇
all-ai.de/news/topbeitraege/ki

All-AI.deKI erkennt Tests – und spielt uns etwas vor!GPT-4o, Claude & Co. durchschauen ihre Prüfungen. Wird uns die wahre Intelligenz der KI nur vorgespielt?

🚀 GenAI isn’t science fiction anymore. From GPT-4o aiding the blind to AlphaFold 3 cutting drug discovery timelines by 50%, the future is already here.

👁️ Explore how 4 GenAI breakthroughs are transforming vision, video, medicine, and work—plus what comes next.

#GenAI #GPT4o #Sora #AlphaFold3 #AIethics #AgenticAI #AIin2025

🔗
medium.com/@rogt.x1997/4-genai

Medium · 4 GenAI Breakthroughs Solving $20B Problems: From GPT-4o to AlphaFold 3Von R. Thompson (PhD)

„Zu nett“ ist auch ein Problem: OpenAI musste sein GPT-4o-Update stoppen, weil der Chatbot zu gefällig reagierte – mit potenziell gefährlichem Ergebnis. Jetzt will OpenAI seine Testprozesse überarbeiten. Was sagt das über die Reife aktueller KI-Systeme? Lies mehr: #OpenAI #GPT4o #KI 👇
all-ai.de/news/topbeitraege/op

All-AI.deKI mit Kuschelkurs? OpenAI lernt aus Update-FiaskoEin zu gefälliger Chatbot als Risiko – das GPT-4o-Update zeigt, warum menschliche Kontrolle wichtiger denn je ist. Was ändert sich jetzt?