Mens proprietær software som GPT og PaLM dominerer markedet, ser mange udviklere værdi i open source sprogmodeller i stedet. Tag Meta som eksempel. Det skabte overskrifter i februar 2023 for officielt at frigive LLaMA store sprogmodel som et open source-program. Ikke overraskende mødte denne beslutning blandede reaktioner.

Da open source sprogmodeller har mange fordele og ulemper og kan påvirke AI-industrien positivt og negativt, har vi opsummeret de vigtigste punkter, du bør kende og forstå.

5 Positive virkninger af open source sprogmodeller

Open source sprogmodeller fremmer en samarbejdstilgang. Input, anmeldelser og use cases fra udviklere verden over hjælper dem uden tvivl at komme hurtigere frem end lukkede projekter.

1. AI-udviklere sparer ressourcer ved at bruge open source-modeller

Lancering af proprietære sprogmodeller koster millioner, hvis ikke milliarder, i ressourcer. Tag OpenAI som et eksempel. Business Insider rapporterer, at virksomheden var nødt til at rejse omkring 30 milliarder dollars for at drive ChatGPT effektivt. At skaffe så meget finansiering er umuligt for de fleste virksomheder. Tekniske startups i deres tidlige stadier ville være heldige at nå selv syv cifre.

instagram viewer

I betragtning af de høje omkostninger, bruger mange udviklere open source sprogmodeller i stedet. De sparer millioner ved at bruge disse systems arkitektur, neurale struktur, træningsdata, algoritme, kodeimplementering og træningsdatasæt.

2. Open Source-modeller udvikler sig uden tvivl hurtigere

Mange teknologiske ledere hævder, at open source-sprogmodeller udvikler sig hurtigere end proprietære modparter. De værdsætter samfundsbidrag og samarbejde. Millioner af dygtige udviklere arbejder på åbne projekter - de kunne teoretisk set opnå en fejlfri, sofistikeret iteration meget hurtigere.

Det er også hurtigere at dække videnshuller med open source AI. I stedet for at træne teams til at finde fejl, teste opdateringer og udforske implementeringer, kan virksomheder analysere samfundsbidrag. Vidensdeling gør brugerne i stand til at arbejde mere effektivt.

Fællesskabsbidrag er ikke altid nøjagtige. Udviklere bør stadig dobbelttjekke algoritmer og modeller, før de integrerer disse i deres systemer.

3. Udviklere vil opdage sårbarheder hurtigere

Open source sprogmodeller tilskynder til peer reviews og aktivt engagement i dets samarbejdsfællesskab. Udviklere kan frit få adgang til kodebaseændringer. Med så mange brugere, der analyserer åbne projekter, vil de sandsynligvis opdage sikkerhedsproblemer, sårbarheder og systemfejl hurtigere.

Ligeledes er fejlopløsning også strømlinet. I stedet for manuelt at løse systemproblemer, kan udviklere tjekke projektets versionskontrolsystem for tidligere rettelser. Nogle poster kan være forældede. Men de vil stadig give forskere og AI-trænere et nyttigt udgangspunkt.

4. AI-teknologiske ledere lærer af open source-modeller

Open source sprogmodeller drager fordel af feedback looping. Positiv feedback-looping deler effektive algoritmer, datasæt og funktioner, hvilket tilskynder udviklere til at efterligne disse. Processen sparer dem for meget tid. Bare bemærk, at der kan opstå fejl med positiv feedback, som brugere tilfældigt kopierer - fejl har en tendens til at blive overset.

I mellemtiden fokuserer looping med negativ feedback på forbedringsområder. Processen involverer deling af personlig indsigt, mens man løser fejl, tester nye funktioner og løser systemproblemer.

5. Open Source AI-platforme får første dibs på nye systemer

Teknikvirksomheder deler ikke sprogsystemer for milliarder af dollars af venlighed. Mens open source-licenser giver tredjepartsbrugere frihed til at ændre og sælge systemer, har de begrænsninger.

Distributører skaber ofte betingelser, der sikrer, at de bevarer en vis autoritet. Du finder disse regler i open source-programmers licensaftaler – slutbrugere får sjældent 100 procent autoritet.

Lad os sige, at Meta vil have kontrol over LLaMA-drevne produkter. Dets juridiske team kunne specificere, at Meta forbeholder sig retten til at investere i alle nye systemer bygget på deres sprogmodel.

Men misforstå det ikke – tredjepartsudviklere og -distributører indgår stadig gensidigt fordelagtige aftaler. Sidstnævnte leverer milliard-dollar teknologier og systemer. I mellemtiden udforsker startups og uafhængige udviklere måder at implementere dem i forskellige applikationer.

5 negative virkninger af open source sprogmodeller

Open source sprogmodeller er i sagens natur objektive, men mennesker er det ikke. Forbrugere, udviklere og virksomheder med ondsindede hensigter kunne udnytte disse systemers åbne natur til personlig vinding.

1. Virksomheder deltager tilfældigt i AI-løbet

Virksomheder står i øjeblikket over for for meget pres for at deltage i AI-løbet. Med populariseringen af ​​AI-systemer frygter mange virksomheder, at de vil blive forældede, hvis de ikke anvender AI. Som et resultat hopper mærker tilfældigt med på vognen. De integrerer open source-sprogmodeller i deres produkter for at kunne sælge produktet og følge med konkurrenterne, selvom de ikke tilbyder noget værdifuldt.

Ja, kunstig intelligens er et hurtigt voksende marked. Men skødesløst frigivelse af sofistikerede, men usikre systemer skader industrien og kompromitterer forbrugernes sikkerhed. Udviklere bør bruge kunstig intelligens til at løse problemer, ikke køre marketinggimmicks.

2. Forbrugere får adgang til teknologi, de knap nok forstår

Du finder AI-baserede variationer af forskellige tekniske værktøjer, fra online billededitorer til apps til sundhedsovervågning. Og brands vil blive ved med at introducere nye systemer, efterhånden som AI udvikler sig. AI-modeller hjælper dem med at levere mere tilpassede, brugerfokuserede iterationer af deres eksisterende platforme.

Mens teknologiindustrien hilser innovationer velkommen, overgår den hurtige udvikling af AI brugeruddannelse. Forbrugerne får adgang til teknologier, de knap nok forstår. Manglen på uddannelse skaber massive videnshuller, som efterlader offentligheden tilbøjelig til cybersikkerhedstrusler og udrivelige praksisser.

Mærker bør prioritere uddannelse lige så meget som produktudvikling. De skal hjælpe brugerne med at forstå de sikre, ansvarlige måder at bruge kraftfulde AI-baserede værktøjer på.

3. Ikke alle udviklere har gode intentioner

Ikke alle bruger AI-værktøjer til deres tilsigtede formål. For eksempel udviklede OpenAI ChatGPT til at besvare arbejdssikre generelle vidensspørgsmål og replikere naturlige sprogudskrifter, men kriminelle udnytter det til ulovlige aktiviteter. Der har været flere ChatGPT-svindel siden AI-chatbotten blev lanceret i november 2022.

Selvom AI-laboratorier håndhæver stive restriktioner, vil skurke stadig finde måder at omgå dem. Tag ChatGPT som eksempel igen. Brugere omgår begrænsninger og udfører forbudte opgaver ved at bruge ChatGPT-jailbreak-prompter.

Nedenstående samtaler viser disse sårbarheder. ChatGPT har begrænsede datasæt; derfor kan den ikke komme med forudsigelser om ustabile, ugaranterede hændelser.

På trods af sine begrænsninger udførte ChatGPT vores anmodning og leverede grundløse forudsigelser efter at have jailbreaket den.

4. Institutioner kan have problemer med at regulere open source AI

Regulerende organer kæmper for at følge med AI, og udbredelsen af ​​open source-modeller gør kun overvågning sværere. AI-fremskridt overgår allerede lovgivningsmæssige rammer. Selv globale teknologiledere som Elon Musk, Bill Gates og Sam Altman opfordrer til strengere AI-regulering.

Både den private og den offentlige sektor skal kontrollere disse systemer. Ellers vil ondsindede personer fortsætte med at udnytte dem til at overtræde databeskyttelseslovgivningen, udføre identitetstyveri, og fidusofre, blandt andre ulovlige aktiviteter.

5. Lavere adgangsbarrierer hæmmer kvaliteten

Udbredelsen af ​​open source-sprogmodeller sænker barriererne for adgang for at deltage i AI-ræset. Du finder tusindvis af AI-baserede værktøjer online.

At se virksomheder anvende maskinel og dyb læring kan virke imponerende, men få giver nogen egentlig værdi. De fleste kopierer blot deres konkurrenter. Over tid kan tilgængeligheden af ​​sofistikerede sprogmodeller og træningsdatasæt kommodificere meningsløse AI-platforme.

Den overordnede indvirkning af open source-sprogmodeller på AI-industrien

Mens open source sprogmodeller gør AI-teknologier mere tilgængelige, udgør de også adskillige sikkerhedsrisici. Udviklere bør sætte strengere restriktioner. Crooks vil fortsætte med at udnytte disse systems gennemsigtige arkitektur ellers.

Når det er sagt, er forbrugerne ikke helt forsvarsløse mod AI-svindel. Gør dig bekendt med de almindelige måder, skurke udnytter generative AI-værktøjer og studerer advarselstegn på angreb. Du kan bekæmpe de fleste cyberkriminalitet ved at være på vagt.