Hakerzy są zdeterminowani, by ulepszać sztuczną inteligencję

Spisu treści:

Hakerzy są zdeterminowani, by ulepszać sztuczną inteligencję
Hakerzy są zdeterminowani, by ulepszać sztuczną inteligencję
Anonim

Kluczowe dania na wynos

  • Nowy zespół programistów tworzy modele AI typu open source.
  • Grupa korzysta z ogromnych modeli szkolenia językowego, które będą udostępniane na otwartych licencjach.
  • Sztuczna inteligencja o otwartym kodzie źródłowym może pomóc w zmniejszeniu podatności na błędy i uprzedzenia potencjalnie zmieniającej grę siły nowej technologii.
Image
Image

Jest wiele badań nad sztuczną inteligencją przez duże firmy (AI), ale jedna grupa internetowa chce zdemokratyzować ten proces.

EleutherAI to niedawno utworzony kolektyw wolontariuszy badaczy, inżynierów i programistów skupionych na badaniach nad sztuczną inteligencją typu open source. Organizacja wykorzystuje bazy kodów GPT-Neo i GPT-NeoX do trenowania ogromnych modeli językowych, które planuje wydać na otwartych licencjach.

„Dane open source przynoszą korzyści naukowcom, ponieważ naukowcy mają więcej bezpłatnych zasobów, które mogą wykorzystać do trenowania modeli i ukończenia badań” – powiedział w rozmowie e-mailowej dla Lifewire Edward Cui, dyrektor generalny firmy Graviti zajmującej się sztuczną inteligencją. Jego firma nie jest zaangażowana w EueutherAI. „Wiemy, że wiele projektów dotyczących sztucznej inteligencji zostało wstrzymanych z powodu ogólnego braku wysokiej jakości danych z rzeczywistych przypadków użycia, dlatego ważne jest ustalenie wytycznych, które zapewnią jakość danych, z pomocą uczestniczącej społeczności”.

To jest droga

Początki EleutherAI były skromne. W zeszłym roku niezależny badacz sztucznej inteligencji, Connor Leahy, opublikował następującą wiadomość na serwerze Discord: „Hej chłopaki, pozwólmy [SIC] dać OpenAI szansę na ich pieniądze jak za starych dobrych czasów.”

I tak powstała grupa. Obecnie ma setki współtwórców, którzy publikują swój kod w internetowym repozytorium oprogramowania GitHub.

Wysiłki AI oparte na otwartym źródle nie są nowe. W rzeczywistości platforma zarządzania przepływem pracy Airbnb Airflow i silnik do wykrywania danych Lyft są wynikiem wykorzystania narzędzi typu open source, aby umożliwić zespołom danych lepszą pracę z danymi, wskazał Ali Rehman, kierownik projektu w firmie programistycznej CloudiTwins w rozmowie e-mail z Lifewire..

„Tak jak rewolucja open source doprowadziła do transformacji rozwoju oprogramowania, tak samo napędza rozwój i demokratyzację nauki o danych i sztucznej inteligencji” – powiedział Rehman. „Otwarte oprogramowanie stało się kluczowym elementem rozwiązań do analizy danych w przedsiębiorstwie, a większość naukowców zajmujących się danymi korzysta z narzędzi open source”.

Otwieranie drzwi

Rozwijanie sztucznej inteligencji typu open source może sprawić, że potencjalnie zmieniająca grę moc nowej technologii będzie mniej podatna na błędy i uprzedzenia, twierdzą niektórzy obserwatorzy.

Badania nad sztuczną inteligencją odbywają się teraz przede wszystkim na otwartej przestrzeni, a prawie wszystkie firmy, laboratoria badawcze i uniwersytety natychmiast prezentują swoje wyniki w publikacjach naukowych, powiedział Kush Varshney, badacz AI w IBM, w rozmowie e-mailowej z Lifewire.

„Ta otwarta społeczność jest niezbędna, ponieważ zapewnia wyższy poziom kontroli i równowagi, aby zapewnić, że sztuczna inteligencja jest badana, tworzona, wdrażana i stosowana w sposób odpowiedzialny” – dodał Varshney. „Jest to szczególnie ważne w sytuacjach, w których systemy te mogą wpływać na życie naszych najbardziej narażonych członków społeczeństwa. Ta otwartość dotyczy nie tylko ogólnych algorytmów uczenia maszynowego i głębokiego uczenia się, ale także elementów godnej zaufania sztucznej inteligencji”.

Rehman powiedział, że jedną z krytycznych różnic między oprogramowaniem własnościowym a oprogramowaniem o otwartym kodzie źródłowym jest elastyczność i możliwość dostosowania. Własne badania nad sztuczną inteligencją będą miały problemy z zabezpieczeniami, aktualizacjami i optymalizacjami.

Image
Image

„Dzieje się tak, ponieważ podejście oparte na społeczności open source otrzymuje cenny wkład od tysięcy ekspertów branżowych, którzy identyfikują potencjalne luki w zabezpieczeniach, które są następnie naprawiane szybciej” – dodał Rehman."Konsensus społeczności oznacza, że jakość jest gwarantowana, a nowe możliwości są łatwiej identyfikowane."

Kolejną kwestią jest to, że zastrzeżone badania nad sztuczną inteligencją nie będą interoperacyjne, co oznacza, że nie będą mogły działać z różnymi formatami danych i prawdopodobnie będą uzależnione od dostawcy, co uniemożliwia firmom testowanie i wypróbowywanie oprogramowania przed zaangażowaniem się w rozwiązanie. Rehman powiedział.

Ale nie każdy aspekt badań nad sztuczną inteligencją musi być typu open source, powiedział w rozmowie e-mailowej dla Lifewire Chris Kent, dyrektor generalny firmy Reveal Surgical zajmującej się medyczną sztuczną inteligencją. „Ważne jest, aby chronić bodźce ekonomiczne, które napędzają komercyjny rozwój kluczowych zastosowań sztucznej inteligencji” – powiedział.

Jednak badania nad sztuczną inteligencją wymagają solidnego komponentu open source, powiedział Kent. Dodał, że open source działa na rzecz budowania zaufania i wykorzystywania zbiorów danych, które nie są lub nie powinny być kontrolowane przez pojedyncze instytucje lub firmy.

„Podejście open source to najlepszy sposób na zidentyfikowanie i zrekompensowanie ukrytych uprzedzeń, które mogą istnieć w zestawach treningowych i doprowadzi do bardziej holistycznych, kreatywnych i niezawodnych zastosowań sztucznej inteligencji” – powiedział Kent.

Zalecana: