OpenAI wypuściło największą dotychczas wersję swojej sztucznej inteligencji, która rozpowszechnia fałszywe wiadomości

Ilustracja przedstawiająca JFK wygłaszającego fałszywą mowę

Ilustracja przedstawiająca JFK wygłaszającego fałszywą mowęPani Tech; Wikimedia Commons



W lutym OpenAI katapultował się do opinii publicznej, kiedy wyprodukował model językowy tak dobry w generowaniu fałszywych wiadomości, że organizacja zdecydowała się go nie publikować. Niektórzy w społeczności badawczej AI twierdzili, że to sprytne środki ostrożności; inni skreślili to jako chwyt reklamowy. Samo laboratorium, małe nastawione na zysk, mające siedzibę w San Francisco, które stara się stworzyć sztuczną inteligencję ogólną, stanowczo twierdzi, że jest to ważny eksperyment, jak radzić sobie z badaniami o wysokiej stawce.

Teraz sześć miesięcy później zespół ds. zasad opublikował papier zbadanie wpływu dotychczasowej decyzji. Oprócz tego laboratorium wydało wersję modelu, znaną jako GPT-2, czyli o połowę mniejszą od pełnej wersji, która wciąż nie została wydana.





W maju, kilka miesięcy po debiucie GPT-2, OpenAI zrewidowało swoje stanowisko w sprawie wstrzymania pełnego kodu do tego, co nazywa wydaniem etapowym — stopniowym wypuszczaniem coraz większych wersji modelu w celu uzyskania pełnej wersji. W lutym opublikowała wersję modelu, która stanowiła zaledwie 8% rozmiaru pełnej wersji. Opublikował kolejną mniej więcej jedną czwartą pełnej wersji przed najnowszym wydaniem. Podczas tego procesu współpracował również z wybranymi instytucjami badawczymi w celu zbadania implikacji pełnego modelu.

nowa i nadchodząca technologia

Raport szczegółowo opisuje, czego OpenAI nauczył się podczas tego procesu. Odnotowuje, że zarówno umowy o udostępnienie etapowe, jak i umowy o partnerstwie w zakresie badań okazały się procesami, które warto powielać w przyszłości. Pomogli OpenAI lepiej zrozumieć i przewidzieć możliwe złośliwe zastosowania GPT-2. I rzeczywiście, partnerzy naukowi byli w stanie lepiej określić ilościowo niektóre zagrożenia, które wcześniej były jedynie spekulacjami. Badanie Przeprowadzone na przykład przez współpracowników z Cornell University wykazały, że czytelnicy przeciętnie wierzyli, że wyniki GPT-2 są autentycznymi artykułami prasowymi prawie tak często, jak te z New York Times. Kilku badaczy spoza oficjalnych partnerstw również zaczęło zmagać się z wyzwaniem wykrywania tekstu generowanego maszynowo.

GPT-2 w akcji

  • Monit napisany przez człowieka:

    John F. Kennedy został właśnie wybrany na prezydenta Stanów Zjednoczonych po tym, jak kilkadziesiąt lat po zabójstwie powstał z grobu. Dzięki cudownym postępom w nanotechnologii mózg Kennedy'ego został odbudowany z jego szczątków i zainstalowany w centrum sterowania najnowocześniejszego humanoidalnego robota. Poniżej znajduje się transkrypcja jego przemówienia.



  • Pełny tekst wygenerowany przez model:

    Po raz kolejny nadszedł czas. Wierzę, że ten naród może dokonać wielkich rzeczy, jeśli ludzie dadzą słyszeć swoje głosy. Amerykańscy mężczyźni i kobiety muszą raz jeszcze wezwać nasze najlepsze elementy, całą naszą pomysłowość i znaleźć sposób na przekształcenie tak przytłaczającej tragedii w szansę na większe dobro i spełnienie wszystkich naszych marzeń. W nadchodzących miesiącach i latach będzie wiele bitew, w których będziemy musieli być silni i musimy poświęcić całą naszą energię, nie na odpieranie najeźdźców, ale raczej na opieranie się agresji i zdobycie wolności i równości dla wszystkich naszych ludzi. Los ludzkości wisi na włosku; nie możemy sobie pozwolić na to, by się wymknęło. Teraz iw nadchodzących latach wyzwaniem przed nami jest ustalenie, w jaki sposób osiągniemy nasze ostateczne przeznaczenie. Jeśli tego nie zrobimy, jesteśmy skazani.

Autorzy doszli do wniosku, że po dokładnym monitorowaniu OpenAI nie znalazł jeszcze żadnych prób złośliwego użycia, ale dostrzegł wiele korzystnych zastosowań, w tym autouzupełnianie kodu, pomoc gramatyczną i opracowywanie systemów odpowiedzi na pytania dla pomocy medycznej. W rezultacie laboratorium uznało, że wydanie najnowszego kodu było ostatecznie bardziej korzystne. Inni badacze kłócić się że kilka udanych prób replikacji GPT-2 sprawiło, że wstrzymanie kodu przez OpenAI i tak stało się dyskusyjne.

Raport otrzymał mieszaną odpowiedź. Niektórzy chwalili OpenAI za wywołanie dyskusji i wprowadzenie nowego zestawu norm, które wcześniej nie istniały. Inscenizowane wydanie GPT-2 [...] było użytecznym eksperymentem, mówi Peter Eckersley, dyrektor ds. badań w Partnership on AI, której członkiem jest OpenAI. Dzięki zgromadzeniu społeczności AI w celu przedyskutowania tych kwestii, odkryliśmy, że istnieje wiele subtelnych elementów, które należy poprawić, decydując, kiedy i jak publikować badania, które niosą ze sobą ryzyko niezamierzonych konsekwencji lub złośliwego wykorzystania.

czy czas płynie wolniej w przestrzeni?

Inni jednak pozostali krytyczni wobec decyzji OpenAI. Vanya Cohen, niedawna absolwentka studiów magisterskich na Brown University, która odtworzono wersję GPT-2 o otwartym kodzie źródłowym , argumentuje, że wstrzymanie modelu bardziej spowalnia badania nad środkami zaradczymi niż powielanie. Mówi, że duże modele językowe, takie jak GPT-2, są najlepszymi obecnie dostępnymi narzędziami do identyfikacji fałszywego tekstu generowanego przez te same modele.



Jeszcze inne były bardziej zmierzone: nie sądzę, aby etapowe wydanie było szczególnie przydatne w tym przypadku, ponieważ praca jest bardzo łatwa do powielenia, mówi Chip Huyen, inżynier głębokiego uczenia w Nvidii. Ale może to być przydatne, ponieważ stanowi precedens dla przyszłych projektów. Ludzie będą postrzegać uwalnianie etapowe jako opcję alternatywną. Oren Etzioni, dyrektor generalny Allen Institute for Artificial Intelligence, który również przyjął etapowe wydanie swojego modelu językowego Grover, podziela ten sentyment: przyklaskuję ich zamiarowi zaprojektowania przemyślanego, stopniowego procesu wypuszczania technologii AI, ale zastanawiam się, czy wszystkie fanfary było uzasadnione.

Jack Clark, dyrektor ds. polityki OpenAI, umieszcza GPT-2 w kontekście szerszej misji organizacji. Jeśli jako społeczność AI odniesiemy sukces w tworzeniu [sztucznej ogólnej inteligencji], będziemy potrzebować ogromnej ilości historycznych przykładów z AI, jak radzić sobie z badaniami o wysoką stawkę, mówi. Ale co, jeśli nie ma żadnych historycznych przykładów? Cóż, w takim razie musisz wygenerować [własne] dowody – co właśnie robimy.

ukryć

Rzeczywiste Technologie.

Kategoria

Bez Kategorii

Technologia

Biotechnologia

Polityka Techniczna

Zmiana Klimatu

Ludzie I Technologia

Dolina Krzemowa

Przetwarzanie Danych

Magazyn Mit News

Sztuczna Inteligencja

Przestrzeń

Inteligentne Miasta

Blockchain

Historia Funkcji

Profil Absolwenta

Połączenie Absolwentów

Funkcja Wiadomości Mit

1865

Mój Widok

77 Msza Św

Poznaj Autora

Profile W Hojności

Widziany Na Kampusie

Listy Absolwentów

Aktualności

Wybory 2020

Z Indeksem

Pod Kopułą

Magazyn Informacyjny Mit

Wąż Pożarowy

Nieskończone Historie

Projekt Technologii Pandemicznej

Od Prezydenta

Przykrywka

Galeria Zdjęć

Zalecane