Linkowisko #85 | TECHNOFOBIA

Cześć!

Mamy nadzieję, że solidnie odpoczniesz w ten weekend i znajdziesz kilka chwil, by przeczytać te kilka artykułów i linków jakie wybraliśmy specjalnie dla Ciebie w tym tygodniu. Do przeczytania w czwartek!

Maciej & Artur

👋 Zapraszam na infoShare 24-25 maja!

Specjalnie dla czytelniczek i czytelników Technofobii mam super zniżkę na zbliżającą się konferencję infoShare.

Wystarczy kliknąć w link :)

🎉 Mój debiut w "Piśmie"! Przeczytaj esej o AI

Napisałem długi esej do wspaniałego magazynu "Pismo" o AI. Uważam (mało skromnie, przyznaję), że to jest bardzo dobry artykuł i zachęcam Cię do przeczytania:

Jeśli uznasz, że takie treści Ci pasują to mam dla Ciebie dwa kody do wykorzystania:

1. kod: KURASGPT
roczna prenumerata (papier + online) z numerem majowym w prezencie
179,88 zł za rok czyli tylko 14,99 zł za miesiąc
aktywny do 19.05.20232.

2. kod: KURAS
roczny dostęp online za pół ceny 64,50 zł za rok, zamiast 129 zł
aktywny do odwołania ;)

Gdzie wykorzystać kody? magazynpismo.pl/prenumerata/

W ramach dostępu online każda osoba otrzymuje:

  • dostęp online do wszystkich treści

  • lektorskie wydania audio i cykle podcastów (w tym Śledztwo Pisma)

  • numery miesięcznika na czytniki (pliki: PDF, ePUB i MOBI)

  • dostęp do cyfrowego archiwum

  • dodatkowe treści dostępne tylko online (newslettery, felietony, rozmowy, polecajki)

  • dostęp do aplikacji mobilnej „Pisma"

A w ramach prenumeraty to wszystko + co miesiąc wydanie papierowe z dostawą na terenie Polski!

NAJWAŻNIEJSZE ARTYKUŁY I NEWSY JAKIE WYBRALIŚMY DLA CIEBIE:

Are Emergent Abilities of Large Language Models a Mirage?

Recent work claims that large language models display emergent abilities, abilities not present in smaller-scale models that are present in larger-scale models. What makes emergent abilities intriguing is two-fold: their sharpness, transitioning seemingly instantaneously from not present to present, and their unpredictability, appearing at seemingly unforeseeable model scales. Here, we present an alternative explanation for emergent abilities: that for a particular task and model family, when analyzing fixed model outputs, one can choose a metric which leads to the inference of an emergent ability or another metric which does not. Thus, our alternative suggests that existing claims of emergent abilities are creations of the researcher's analyses, not fundamental changes in model behavior on specific tasks with scale. We present our explanation in a simple mathematical model, then test it in three complementary ways: we (1) make, test and confirm three predictions on the effect of metric choice using the InstructGPT/GPT-3 family on tasks with claimed emergent abilities, (2) make, test and confirm two predictions about metric choices in a meta-analysis of emergent abilities on BIG-Bench; and (3) show how similar metric decisions suggest apparent emergent abilities on vision tasks in diverse deep network architectures (convolutional, autoencoder, transformers). In all three analyses, we find strong supporting evidence that emergent abilities may not be a fundamental property of scaling AI models.