Ta historia pierwotnie ukazała się w The Algorithm, naszym cotygodniowym biuletynie poświęconym sztucznej inteligencji. Aby otrzymywać takie historie w pierwszej kolejności do swojej skrzynki odbiorczej, zarejestruj się tutaj .

Czy możesz sobie wyobrazić firmę samochodową wprowadzającą na rynek nowy pojazd bez wbudowanych funkcji bezpieczeństwa? Nieprawdopodobne, prawda? Ale to, co robią firmy zajmujące się sztuczną inteligencją, przypomina trochę wypuszczanie samochodów wyścigowych bez pasów bezpieczeństwa lub w pełni działających hamulców i zastanawianie się nad tym, co się dzieje.

Takie podejście wpędza ich teraz w kłopoty. Na przykład OpenAI stoi w obliczu dochodzeń prowadzonych przez europejskie i kanadyjskie organy ochrony danych w związku ze sposobem, w jaki gromadzi dane osobowe i wykorzystuje je w swoim popularnym chatbocie ChatGPT. Włochy tymczasowo zablokowały ChatGPT, a OpenAI musi do końca tego tygodnia dostosować się do surowego europejskiego systemu ochrony danych, RODO. Ale w mojej historii z zeszłego tygodnia eksperci powiedzieli mi, że firma prawdopodobnie nie będzie w stanie się dostosować, ze względu na sposób gromadzenia danych dla sztucznej inteligencji: poprzez odkurzanie treści z Internetu.

Zapierające dech w piersiach tempo rozwoju oznacza, że organy ochrony danych muszą być przygotowane na kolejny skandal, taki jak Cambridge Analytica, mówi Wojciech Wiewiórowski, unijny organ nadzorujący dane.

Wiewiórowski jest europejskim inspektorem ochrony danych i jest potężną postacią. Jego rolą jest pociągnięcie UE do odpowiedzialności za własne praktyki w zakresie ochrony danych, monitorowanie najnowocześniejszych technologii i pomoc w koordynowaniu egzekwowania przepisów w całej Unii. Rozmawiałem z nim o lekcjach, które powinniśmy wyciągnąć z ostatniej dekady w dziedzinie technologii oraz o tym, co Amerykanie powinni zrozumieć na temat unijnej filozofii ochrony danych. Oto, co miał do powiedzenia.

Czego firmy technologiczne powinny się nauczyć: że produkty powinny od początku mieć zaprojektowane funkcje prywatności. Jednak „niełatwo jest przekonać firmy, że powinny przyjąć modele uwzględniania prywatności od samego początku, kiedy muszą działać bardzo szybko” — mówi. Cambridge Analytica pozostaje najlepszą lekcją tego, co może się stać, jeśli firmy będą szły na skróty, jeśli chodzi o ochronę danych, mówi Wiewiórowski. Firma, która stała się jednym z największych skandali reklamowych na Facebooku, usunęła dane osobowe dziesiątek milionów Amerykanów z ich kont na Facebooku, próbując wpłynąć na sposób głosowania. To tylko kwestia czasu, kiedy zobaczymy kolejny skandal – dodaje.

Co Amerykanie muszą zrozumieć na temat unijnej filozofii ochrony danych: „Podejście europejskie wiąże się z celem, w jakim wykorzystujesz dane. Kiedy więc zmieniasz cel, w jakim dane są wykorzystywane, a zwłaszcza jeśli robisz to wbrew informacjom, które przekazujesz ludziom, łamiesz prawo – mówi. Weź Cambridge Analytica. Największym naruszeniem prawa nie było to, że firma zbierała dane, ale to, że twierdziła, że zbiera dane do celów naukowych i quizów, a następnie wykorzystywała je do innego celu – głównie do tworzenia profili politycznych ludzi. Jest to uwaga podniesiona przez organy ochrony danych we Włoszech, które tymczasowo zakazały tam ChatGPT. Władze twierdzą, że OpenAI zebrała dane, które chciała wykorzystać nielegalnie, i nie powiedziała ludziom, w jaki sposób zamierza je wykorzystać.

Czy regulacje hamują innowacje? Jest to powszechne twierdzenie wśród technologów. Wiewiórowski mówi, że prawdziwym pytaniem, które powinniśmy sobie zadać, jest: czy naprawdę chcemy dać firmom nieograniczony dostęp do naszych danych osobowych? „Nie sądzę, żeby przepisy… naprawdę hamowały innowacje. Próbują uczynić to bardziej cywilizowanym” – mówi. RODO chroni przecież nie tylko dane osobowe, ale także handel i swobodny przepływ danych ponad granicami.

Piekło Big Tech na ziemi? Europa nie jest jedyną, która gra twardo z technologią. Jak informowałem w zeszłym tygodniu , Biały Dom zastanawia się nad zasadami odpowiedzialności AI, a Federalna Komisja Handlu posunęła się nawet do żądania, aby firmy usuwały swoje algorytmy i wszelkie dane, które mogły zostać zebrane i wykorzystane nielegalnie, jak to się stało z Weight Watchers w 2022 r . Wiewiórowski mówi, że cieszy się, że prezydent Biden wzywa firmy technologiczne do wzięcia większej odpowiedzialności za bezpieczeństwo swoich produktów i uważa za zachęcające, że amerykańskie myślenie polityczne jest zbieżne z europejskimi wysiłkami na rzecz zapobiegania zagrożeniom związanym ze sztuczną inteligencją i narażania firm na ryzyko szkód . „Jeden z dużych graczy na rynku technologicznym powiedział kiedyś: »Definicją piekła jest europejskie prawodawstwo z amerykańskim egzekwowaniem«” — mówi.

Przeczytaj więcej na ChatGPT

Wewnętrzna historia tego, jak zbudowano ChatGPT od ludzi, którzy go stworzyli

Jak OpenAI stara się uczynić ChatGPT bezpieczniejszym i mniej stronniczym

ChatGPT jest wszędzie. Oto, skąd to się wzięło .

ChatGPT wkrótce zrewolucjonizuje gospodarkę. Musimy zdecydować, jak to ma wyglądać.

ChatGPT zmieni edukację, a nie ją zniszczy

____________________________________________________________________

GŁĘBSZA NAUKA

Nauka kodowania to za mało

W ostatniej dekadzie pojawiło się mnóstwo inicjatyw non-profit, których celem jest nauczanie dzieci programowania. W tym roku Karolina Północna rozważa uczynienie z kodowania wymogu ukończenia szkoły średniej. Stan podąża śladami pięciu innych, które mają podobne zasady, które uważają kodowanie i edukację komputerową za podstawę wszechstronnej edukacji: Nevada, Karolina Południowa, Tennessee, Arkansas i Nebraska. Zwolennicy takiej polityki twierdzą, że poszerzają one możliwości edukacyjne i ekonomiczne uczniów.

Nie ma panaceum: Inicjatywy mające na celu zwiększenie kompetencji w zakresie technologii istnieją od lat 60. XX wieku. Ale te programy i wiele następnych często przynosiły korzyści populacjom posiadającym największą władzę w społeczeństwie. Zarówno wtedy, jak i teraz, sama nauka kodowania nie jest ani drogą do stabilnej finansowej przyszłości dla osób ze środowisk o niepewnej sytuacji ekonomicznej, ani panaceum na niedoskonałości systemu edukacyjnego. Przeczytaj więcej od Joy Lisi Rankin .

____________________________________________________________________

BITY I BAJTY

Wewnątrz tajnej listy stron internetowych, dzięki którym sztuczna inteligencja, taka jak ChatGPT, brzmi inteligentnie

Niezbędna lektura dla wszystkich zainteresowanych zwiększaniem odpowiedzialności sztucznej inteligencji. Mamy bardzo ograniczone pojęcie o tym, co dzieje się w ogromnych zbiorach danych stojących za systemami sztucznej inteligencji, ale ta historia rzuca światło na to, skąd pochodzą dane dla sztucznej inteligencji i jakie rodzaje uprzedzeń się z nimi wiążą. ( Washington Post )

Google Brain i DeepMind łączą siły

Alphabet połączył swoje dwie jednostki badawcze AI w jedną mega jednostkę, teraz nazywanąGoogle DeepMind . Fuzja ma miejsce, gdy kierownictwo Alphabet jest coraz bardziej zaniepokojone perspektywą wyprzedzenia go przez konkurentów w zakresie sztucznej inteligencji. Firma DeepMind stoi za niektórymi z najbardziej ekscytujących przełomowych odkryć w dziedzinie sztucznej inteligencji ostatniej dekady, a głębsza integracja jej badań z produktami Google może pomóc firmie uzyskać przewagę.

Google Bard może być teraz używany do kodowania

Google wprowadziło nową funkcję, która pozwala ludziom używać swojego chatbota Bard do generowania, debugowania i wyjaśniania kodu , podobnie jak drugi pilot GitHub firmy Microsoft.

Niektórzy twierdzą, że ChatGPT pokazuje przebłyski AGI w ChatGPT. Inni nazywają to mirażem

Badacze Microsoftu wywołali poruszenie, gdy opublikowali artykuł, w którym argumentowali, że ChatGPT wykazuje oznaki sztucznej inteligencji ogólnej. To niezły opis różnych sposobów, w jakie naukowcy próbują zrozumieć inteligencję maszyn i jakie to wyzwanie. ( przewodowy )