առաջին անգամ gpt4o֊ն ա պատասխանոմւ, նոյն հարցին յետոյ պատասխանում ա gpt4֊ը՝
4o֊ն տուֆտում ա։ ոնց որ չիմանայ ոչ մի բան ու իմ ասածը կրկնի։
4֊ը ասում ա որ իսկապէս, CM602 պրոցեսոր կար բուլղարական։ նման բան երբ փնտրում եմ, գտնում եմ։
meta-llama֊ին եմ ուզում հարցնել, բայց ինչ֊որ պատճառով սթարտ չի լինում։
#աբ #աբօ #պատմութիւն #6502 #CM602 #СМ6502 #CM6502 #բուլղարիա #պրաւեց #ռետրօհամակարգչութիւն
ահա, arm֊ն էլ ա օգտագործել branch prediction ու էդպէս էլ պիտի լինէր՝
https://www.youtube.com/watch?v=CjpEZ2LAazM ✓
սա շատ հետաքրքիր թութղ ա՝
https://arxiv.org/pdf/2406.08719
speculative execution֊ը բարդ լուծում ա, իսկ բարդութիւնից կարող են բխել խնդիրները։ պարտադիր չի որ բխեն, բայց մենք մարդ ենք, ու մեզ բարդ ա գործ անել բարդ համակարգերի հետ։
#մարդ_ես
ես հասկանում եմ որ մրցակցութիւնն ա ստիպում բոլոր տէք նախագծողներին բարդացնել դիզայնը, գտնել բարդ լուծումներ։ չնայած կարող ա եւ տակից դուրս չգան։
ու մրցակցութիւնը ոնց որ ստիպի իրանց լինել անպատասխանատու։ իրենք կարողանում են բարձր գնահատականներ հաւաքել տարբեր չափումներում ու թեստերում, բայց ահա հիմա ունեն բագ։ օկէյ, կը ֆիքսեն ու ուրախ կը վաճառեն մեզ նոր պրոցեսորներ։
իսկ եղած պրոցեսորի համար ֆիքսը եթէ լինի՝ ապա ծրագրային, ու կը դանդաղեցնի աշխատանքը։ ու էն ինչ շահել ենք speculative execution֊ի պատճառով, կը կոմպենսացուի ծրագրային ուղղումով։ լաւ ա եթէ աւելի դանդաղ չի աշխատի, քան առանց դրա կաշխատէր։
ու մի կողմից հա, նախագծողներն են, որ ուզում են գլխից վերեւ թռնել, ֆիզիկայի օրէնքներն անցնեն, ժամանակից առաջ ընկնեն։ իսկ նրանք որ չեն կարողացել՝ դուրս են մնում շուկայից, բիզնէսից։
միւս կողմից էդ մենք ենք, շուկան, որ չի ջոկում ինչ ա կատարւում, մանաւանդ էդ նոր ոլորտում, ու ուրախ գնում ենք էդպիսի պրոցեսորներ։
պահանջ չենք դնում որ լինեն աւելի դանդաղ, բայց աւելի պարզ դիզայնի ու յուսալի։
միւս կողմից՝ աշխարհն ա հիմա բարդացել։ ու գուցէ միայն ոլորտից չի՝ մենք առհասարակ չենք ջոկում ինչ ա կատարւում ու չենք կողմնորոշւում ինչ ա շուկան առաջարկում այս բարդ աշխարհում։
ինչն ա նաեւ սարսափելի՝ ջաւա սկրիպտ էքսփլոյթ կայ, ինչպէս եւ ինթելի նմանատիպ խնդիրների ժամանակ կար։ այսինքն՝ դիտարկչի մէջ կարող ա վնասակար կոդ աշխատել, իսկ դու չես էլ իմանայ։
ու ես տեսնում եմ որ արհեստական բանականութիւն ա օգտագործուելու որպէս quality assurance, որպէս թեստեր։ ու արդէն օգտագործւում ա։ ինչը մտահոգիչ ա, որովհետեւ ինքը կարող ա սխալուել, իսկ մենք կարող ա դա չջոկենք։
ու կարելի ա աւելի խորը գնալ ու նշել որ պետութեան կողմից ստանդարտիզացուած կրթութեան եւ թեստաւորման համակարգն ա բերում նրան որ բոլորը սովորում են մի ձեւով։ ու հիմա կը գայ արհեստական բանականութիւնը որը կը համարուի, որ աւելի լաւ ա իրան դրսեւորում, քան մարդիկ էդ նոյն ստանդարտիզացուած թեստերում։
#աբ #ապագայ #տէք #արհեստական_բանականութիւն #աբօ #մարդ #մարդիկ #երկաթ #պրոցեսոր #վրիպում #անվտանգութիւն #թեստաւորում #նախագծում #ծրագրաւորում #կրթութիւն #մրցակցութիւն #կապիտալիզմ #ազատութիւն #
երբ պասկալով ա կոդ գեներացնում, աբօն՝ արհեստական բանականութիւնը, յաճախ շփոթւում ա այնտեղ, ուր օրինակ տիպ ա գրում, բայց չի ջոկում որ էդ տիպ նկարագրող unit֊ը իմպորտ չի արել։ ինչի՞ չի ջոկում, որովհետեւ դէ կոդի մէջ տեսել ա՝ աշխատում ա, չի մտածել որ մի մոդուլի մէջ ա ու որ էդ մոդուլը պէտք ա ներմուծել։
իսկ օբերոնով երբ գրում ա, պիտի յստակ իմանայ ինչը որտեղ ա որ ճիշտ գրի։ ու էդ դէպքում նման սխալ անել չի կարող։
#աբ #պասկալ #օբերոն
>ինչպէս տեսնում ենք, llm֊ներն ըստ էութեան վստահաբար ստող մեքենաներ են, որ երբեմն կարող են մատնել մասնաւոր տուեալներ կամ գրագողութիւն անել, այդ ընթացքում ծախսելով եռանդուժի ահռելի ծաւալներ՝ ուրախութեամբ օգտագործելով բոլոր տրամադրուած gpu֊ները՝ դա խնդիր է, որի հետ արդէն առերեսուել ենք կրիպօարժոյթների ոլորտում։
>այսպիսով, նպատակայարմար չենք գտնում առաքել նման մի լուծում վիվալդի դիտարկչի հետ։ աշխարհում արդօն բաւական կեղծ տեղեկատւութիւն է, եւ կարիք չկայ այն շատացնելու։
>մենք չենք կիրառի llm որ աւելացնենք չաթ բոտ, ամփոփելու լուծում կամ ֆորմաները լրացնելու առաջարկող շարժիչ մինչեւ աւելի խստապահանջ եւ ճշգրիտ լուծումների առկայ լինելը։
բնօրինակ՝
So, as we have seen, LLMs are essentially confident-sounding lying machines with a penchant to occasionally disclose private data or plagiarise existing work. While they do this, they also use vast amounts of energy and are happy using all the GPUs you can throw at them which is a problem we’ve seen before in the field of cryptocurrencies.
As such, it does not feel right to bundle any such solution into Vivaldi. There is enough misinformation going around to risk adding more to the pile. We will not use an LLM to add a chatbot, a summarization solution or a suggestion engine to fill up forms for you until more rigorous ways to do those things are available.
#վիվալդի #դիտարկիչ #աբ #արհեստական_բանականութիւն
ես համոզուած էի որ գրել եմ ինչպէս օգտագործել լոկալ llm։
բայց չեմ գտնում այդ գրառումը։
ահա՝
python -m venv ~/venvs/llm
. ~/venvs/llm/bin/activate
առաջին տողը ստեղծում ա փայթընի վիրտուալ միջավայր՝ ինչ էնտեղ pip
֊ով տեղակայէք, կը մնայ էնտեղ, մեկուսացուած։
ամէն անգամ ապագայում այդ միջավայրը ակտիւացնելու համար պէտք ա կրկնել երկրորդ տողը։
եթէ ձեր pip
֊ը աշխատում ա եւ առանց վիրտուալ միջավայրի (էդպէս, տեսել եմ մակօսներում ա, կամ հին լինուքս դիտրիբուտիւներում), ապա կարող էք սա չանել էլ։
հիմա տեղակայենք llm
ծրագիրը՝
pip install llm
յետոյ
llm install llm-gpt4all
հիմա եթէ գրէք՝
llm models list
կը կարողանաք տեսնել ինչ մոդելներ կան, որոնց հետ կարող էք խօսել, էս պահին ինձ մօտ հետեւալն ա բերում՝
$ llm models list ??
OpenAI Chat: gpt-3.5-turbo (aliases: 3.5, chatgpt)
OpenAI Chat: gpt-3.5-turbo-16k (aliases: chatgpt-16k, 3.5-16k)
OpenAI Chat: gpt-4 (aliases: 4, gpt4)
OpenAI Chat: gpt-4-32k (aliases: 4-32k)
OpenAI Chat: gpt-4-1106-preview
OpenAI Chat: gpt-4-0125-preview
OpenAI Chat: gpt-4-turbo-preview (aliases: gpt-4-turbo, 4-turbo, 4t)
OpenAI Completion: gpt-3.5-turbo-instruct (aliases: 3.5-instruct, chatgpt-instruct)
gpt4all: Meta-Llama-3-8B-Instruct - Llama 3 Instruct, 4.34GB download, needs 8GB RAM (installed)
gpt4all: all-MiniLM-L6-v2-f16 - SBert, 43.76MB download, needs 1GB RAM
gpt4all: all-MiniLM-L6-v2 - SBert, 43.82MB download, needs 1GB RAM
gpt4all: nomic-embed-text-v1 - Nomic Embed Text v1, 261.58MB download, needs 1GB RAM
gpt4all: nomic-embed-text-v1 - Nomic Embed Text v1.5, 261.58MB download, needs 1GB RAM
gpt4all: replit-code-v1_5-3b-newbpe-q4_0 - Replit, 1.82GB download, needs 4GB RAM
gpt4all: orca-mini-3b-gguf2-q4_0 - Mini Orca (Small), 1.84GB download, needs 4GB RAM
gpt4all: Phi-3-mini-4k-instruct - Phi-3 Mini Instruct, 2.03GB download, needs 4GB RAM
gpt4all: mpt-7b-chat - MPT Chat, 3.54GB download, needs 8GB RAM
gpt4all: orca-2-7b - Orca 2 (Medium), 3.56GB download, needs 8GB RAM
gpt4all: rift-coder-v0-7b-q4_0 - Rift coder, 3.56GB download, needs 8GB RAM
gpt4all: mpt-7b-chat-newbpe-q4_0 - MPT Chat, 3.64GB download, needs 8GB RAM
gpt4all: em_german_mistral_v01 - EM German Mistral, 3.83GB download, needs 8GB RAM
gpt4all: mistral-7b-instruct-v0 - Mistral Instruct, 3.83GB download, needs 8GB RAM
gpt4all: ghost-7b-v0 - Ghost 7B v0.9.1, 3.83GB download, needs 8GB RAM
gpt4all: Nous-Hermes-2-Mistral-7B-DPO - Nous Hermes 2 Mistral DPO, 3.83GB download, needs 8GB RAM
gpt4all: mistral-7b-openorca - Mistral OpenOrca, 3.83GB download, needs 8GB RAM
gpt4all: gpt4all-falcon-newbpe-q4_0 - GPT4All Falcon, 3.92GB download, needs 8GB RAM
gpt4all: gpt4all-13b-snoozy-q4_0 - Snoozy, 6.86GB download, needs 16GB RAM
gpt4all: wizardlm-13b-v1 - Wizard v1.2, 6.86GB download, needs 16GB RAM
gpt4all: orca-2-13b - Orca 2 (Full), 6.86GB download, needs 16GB RAM
gpt4all: nous-hermes-llama2-13b - Hermes, 6.86GB download, needs 16GB RAM
gpt4all: starcoder-newbpe-q4_0 - Starcoder, 8.37GB download, needs 4GB RAM
հիմա, եթէ մի հատ հարց ես ուզում տալ, ու մի պատասխանով բաւարարուելու ես, ապա՝
llm -m Meta-Llama-3-8B-Instruct
ինքը կը քաշի էս մէկը (չորս գբ ա զբաղեցնում) ~/.cache/gpt4all
֊ի մէջ։
$ ls ~/.cache/gpt4all/ -lh
total 4.4G
-rw-r--r-- 1 inky inky 4.4G Ապր 27 07:08 Meta-Llama-3-8B-Instruct.Q4_0.gguf
ու դրանից յետոյ կը կարողանաս խօսել իր հետ։
այլապէս, կարող ես պահել այն յիշողութեան մէջ ու նոյն թեմայի մասին էլի խօսել՝
llm chat -m Meta-Llama-3-8B-Instruct
կարող ես իհարկէ նշել այլ մոդել։
աւելի «հեշտ» ձեւն ա՝ lm studio
օգտագործելը։ համոզուած չեմ որ ազատ ա։ ես էսպէս եմ անում։
նաեւ, էս ամէն մոդելն ունի իր սպեցիֆիկ օպցիաները։
$ llm models list --options
OpenAI Chat: gpt-3.5-turbo (aliases: 3.5, chatgpt)
temperature: float
What sampling temperature to use, between 0 and 2. Higher values like
0.8 will make the output more random, while lower values like 0.2 will
make it more focused and deterministic.
max_tokens: int
Maximum number of tokens to generate.
top_p: float
An alternative to sampling with temperature, called nucleus sampling,
where the model considers the results of the tokens with top_p
probability mass. So 0.1 means only the tokens comprising the top 10%
probability mass are considered. Recommended to use top_p or
temperature but not both.
frequency_penalty: float
Number between -2.0 and 2.0. Positive values penalize new tokens based
on their existing frequency in the text so far, decreasing the model's
likelihood to repeat the same line verbatim.
presence_penalty: float
Number between -2.0 and 2.0. Positive values penalize new tokens based
on whether they appear in the text so far, increasing the model's likelihood to talk about new topics.
stop: str
A string where the API will stop generating further tokens.
logit_bias: dict, str
Modify the likelihood of specified tokens appearing in the completion.
Pass a JSON string like '{"1712":-100, "892":-100, "1489":-100}'
seed: int
Integer seed to attempt to sample deterministically
json_object: boolean
Output a valid JSON object {...}. Prompt must mention JSON.
OpenAI Chat: gpt-3.5-turbo-16k (aliases: chatgpt-16k, 3.5-16k)
temperature: float
max_tokens: int
top_p: float
frequency_penalty: float
presence_penalty: float
stop: str
logit_bias: dict, str
seed: int
json_object: boolean
OpenAI Chat: gpt-4 (aliases: 4, gpt4)
temperature: float
max_tokens: int
top_p: float
frequency_penalty: float
presence_penalty: float
stop: str
logit_bias: dict, str
seed: int
json_object: boolean
OpenAI Chat: gpt-4-32k (aliases: 4-32k)
temperature: float
max_tokens: int
top_p: float
frequency_penalty: float
presence_penalty: float
stop: str
logit_bias: dict, str
seed: int
json_object: boolean
եւ այլն։
մեր դէպքում՝
gpt4all: Meta-Llama-3-8B-Instruct - Llama 3 Instruct, 4.34GB download, needs 8GB RAM (installed)
max_tokens: int
The maximum number of tokens to generate.
temp: float
The model temperature. Larger values increase creativity but decrease
factuality.
top_k: int
Randomly sample from the top_k most likely tokens at each generation
step. Set this to 1 for greedy decoding.
top_p: float
Randomly sample at each generation step from the top most likely
tokens whose probabilities add up to top_p.
repeat_penalty: float
Penalize the model for repetition. Higher values result in less
repetition.
repeat_last_n: int
How far in the models generation history to apply the repeat penalty.
n_batch: int
Number of prompt tokens processed in parallel. Larger values decrease
latency but increase resource requirements.
հիմա կարելի ա կանչել էսպէս՝
$ llm chat -m Meta-Llama-3-8B-Instruct --option max_tokens 5
Chatting with Meta-Llama-3-8B-Instruct
Type 'exit' or 'quit' to exit
Type '!multi' to enter multiple lines, then '!end' to finish
> i just ran you with --option max_tokens 5 and i would like to understand if it work.
I see that you're
>
ահա, աշխատում ա։
ու տէնց
#աբօ #աբ #արհեստական_բանականութիւն
հարնում եմ ջպտ֊ին՝
թռչուն որի անունը խատուտիկի պէս մի բան ա, խատտի՞կ, խածտտի՞կ։
ասում ա՝
Բառարանականության համապատասխան, “խատուտիկ” բառը համապատասխանում է թռչունի մոտակայքի բանականությանը, այնպես որ, դա հետևում է թռչունների ձեռքին պատկանող պատկերացուցիչների դիմանկարներին։ Այսպիսով, թռչունը “խատուտիկ” է։
նոյն հարցը կլաւդին՝
Կարծում եմ, դուք նկատի ունեք «խաչաչուկ» թռչունը: Այն փոքրիկ, կանաչավուն թիթեռնիկի նման թռչուն է, որը հազվադեպ է հանդիպում քաղաքային վայրերում: Խաչաչուկի մյուս տարածված անունն է «տատրակ» կամ «տատրիկ»: Այն իր անունը ստացել է բնորոշ կանչի համար, որը նման է «տատ-տատ-տատ» բառերի արտասանությանը: Խաչաչուկները փոքրիկ թմրամիս թռչուններ են, որոնք սովորաբար ապրում են անտառներում, թփուտներում և այգիներում: Նրանք կերնվում են միջատներով, պղպջակներով և մրջյուններով: Այսպիսով, դուք ճիշտ էիք արտասանելիս «խատուտիկ» կամ «խածտտիկ» տարբերակները, քանի որ դրանք շփոթ են ստեղծում «խաչաչուկ» թռչունի անվան հետ:
իրականում խաղտտնիկն էր։
#խաղտտնիկ #աբ #աբօ
աբօյի (արհեստական բանականութեան, այսուհետ՝ աբօյի) հետ եմ խօսում։
#աբ #աբօ #արհեստական_բանականութիւն
աբ֊ի հետ եմ խօսում, github֊ի issue եմ տուել կարդայ, էնտեղ էլ իմ github֊ի օգտանունով ես էլ եմ մեկնաբանել, ասում ա՝ տեսնում եմ քանի հոգի էդ խնդիրն ունեն, ներառեալ քեզ։
#աբ
ես ասում էի՝ պէտք ա գրել, որ փնտրուի ու գտնուի։
ու մարդկանց օգուտ ա։
թէկուզ եւ google֊ի համակարգով են փնտրելու։
հետեւաբար նոյնը կարելի ա ասել այսօր՝
պէտք ա գրել, որ արհեստական բանականութիւնը սովորի ու օգտակար լինի այլ մարդկանց։ թէկուզ եւ google֊ի կամ openai֊ի համակարգով են շփուելու։
ու ես չեմ կասկածում որ ինչպէս էսօր մենք ունենք searx֊ի պէս նախագծեր, այնպէս էլ կունենանք self host լինող արհեստական բանականութիւններ։
#աբ #արհեստական_բանականութիւն
#աբ #երեւան #ուապորուէյւ #ւապորուէյւ
#աբ #երեւան #անահիտ #ուապորուէյւ #ւապորուէյւ
աբ արուեստը շատ հետաքրքիր ա ու ձգող։ ես վերջերս գտել եմ տեքստեր որ ձեւակերպում են իմ պոտենցիալ բեմադրուած, բայց երբէք չարուած նկարները։ ես լրիւ պատկերացնում եմ ոնց ա կարելի աբ֊ի հետ զրուցելով հասնել իմ ուզած նկարների։
բեմադրուածի դէպքում ինձ պէտք չի դա լինի ֆոտօ՝ նկար ա, պարզապէս ես վրձինով կամ կարգչով նկարել չգիտեմ։ թող ինքն անի։
բայց մի բան ինձ աւելի ա խթանում սովորել օրինակ բլենդեր ու կարգչով ու ծրագրով նկարել, եւ ոչ թէ աբ֊ին պատմել մտքերս որ նա անի՝ աբ֊ն կանի, բայց ես չունեմ նկարի ելատեքստը, սորսը։
դիցուք ես եմ նկարել՝ հաստատ աւելի երկար տանջուելով, ու ստեղծել եմ ինչ֊որ մոդել։ ձուկը կամ ձին՝ ես այդ ձկանը կարող եմ էլի օգտագործել, այլ կոնտեքստում, կամ թարմացնել, մի քիչ այլ ձուկ սարքել իրանից։
աբ֊ի դէպքում մոդել գոյութիւն չունի։ ինքը ռենդեր ա անում «մտքում», «պատկերացնելով»։ ու իհարկէ վրձինի դէպքում էլ սորսը չունեմ՝ բայց այն հեշտ ա պատկերացնել ու ռեւերս ինջիներ անել։ երեւի։ (:
ամէն դէպքում սորսը շատ կարեւոր գաղափար ա ինձ համար։ ու երեւի պատահական չի որ սիրում եմ սորսից շինել համակարգս ու ծրագրակազմը։
գուցէ ապագայում կը լինի ասել որ մոդելներ սարքի, ոչ թէ նկարներ։ եւ այդ մոդելները կը լինի վերօգտագործել։
#աբ #արհեստական_բանականութիւն #արուեստ
#էկրանահան #արհեստական_բանականութիւն #աբ #հայերէն #դասական_ուղղագրութիւն #ուղղագրութիւն
է՛ն, որ chat gpt֊ն կոդ գրել ալարում ա, իսկ սովորական տեքստ՝ չէ, նշանակում ա որ կոդ գրելը պահանջում ա աւելի շատ հաշուողական ռեսուրս։
ու երեւի դէ մեզնից էլ։
ու մտածում եմ, որ դէ գիրք կարդալը՝ էն չէ որ կպնես՝ քնելուն լաւ ա, ու նկատում եմ որ մեկնաբանելն ա լաւ։
իսկ կոդ գրելը՝ եթէ կպնես՝ չես քնի, եթէ չկպնես՝ կը յոգնեցնի որ քնես։
#աբ
նախ ասեմ որ կորի դոկտորովի բեռլինի ելոյթը վերջն էր ու շատ կուզէի լսէիք կամ տեքստը կարդայիք։
իսկ մենք էն օրը խօսում էինք արհեստական բանականութիւնից։
մէկը՝ դասախօս էր, ասում էր՝ չեմ հասկանում ինչ ա կատարւում։ ես իրան ասում եմ՝ առաջադրանք գրի՝ գրում ա, ուղարկում եմ ուսանողներին։ իրանք իրան են տալիս որ լուծի, յետոյ ուղարկում են ինձ։ ես էլի իրան եմ տալիս, ասում եմ՝ ընկեր, դո՞ւ ես գրել, ասում ա՝ հա՛։
մէկն էլ ասաց՝ դէ ուսանողներն էլ են իրան տալիս, ասում են՝ ընկեր, դո՞ւ ես գրել՝ ասում ա՝ հա, ասում են՝ դէ ոնց գրել ես՝ տէնց էլ լուծի։
էսօր էլ մտածում էի, որ արհեստական բանականութիւնը դեռ չարացած չի, դեռ փող չեն աշխատում իրանով, ոնց հասկանում եմ։ ու եթէ էսօր գուգլի տուած առաջին յղումները գովազդ են, ապա ապագայում բնաւ բացառուած չի, որ արհեստական բանականութեան առաջին պատասխաննեերը լինեն վճարուած։
օրինակ, հարցնես՝ վնասակա՞ր ա հեռախօսը գիշերը թողնել լիցքաւորուի, կամ հեռախօսը հետդ տանել գոլորշիով բաղնիք՝ կասի՝ դէ չէ, առանձնապէս՝ թող լիցքաւորուի, էդպէս աւելի յարմար ա։ որովհետեւ այդ համար հեռախօս արտադրող ընկերութիւնները վճարել են՝ որ էսպէս ասի որ շուտ փչանայ մարտկոցդ ու շուտ առնես յաջորդ հեռախօսը։ իսկ եթէ աւելի շատ խօսեցնես, ասես՝ բայց ինչքանո՞վ ա ազդում, ո՞նց չի վնասում, կարող ա եւ խոստովանի, որ եթէ էսպէս ու էսպէս անես՝ աւելի երկար կը ձգի։
ի՞նչ ա արդէն էսօր անում, որովհետեւ այդ համար վճարուած ա՝ աստուած գիտի։ բայց ինքն էլ շատ հզօր՝ փնտրող համակարգից աւելի շատ հզօր, օրակարգ տանելու ձեւ ա։
ու ապագայում շատ կարեւոր կը լինի քո սերուերի վրայ քո արհեստական բանականութիւն քշելը։
#արհեստական_բանականութիւն #աբ #ազատութիւն #գաղտնիութիւն #ապակենտրոնացում
շփւում եմ տարբեր աբ֊ների հետ վերջերս, աւելի մանրամասն կը գրեմ յետոյ։
հիմա ուզում եմ ասել, որ աբ֊ն լրիւ կարող ա կախուածութիւն առաջացնել։
յաճախ դեբիլ ա, բայց յաճախ ապշելու խելամիտ։ ու երեւի խելամտութիւնը կը բարձրանայ։
իր արագ պատասխաններով, դայջեսթներով, սովորեցնում ա ալարել փնտրել ու հետազօտել՝ ինքն ա ամէնը կազմակրեպուած պատմում։
առաջին մտահոգութիւնս հէնց դա ա։ միւս կողմից՝ դէ բնական ա՝ տէքը միշտ ա արդիւնաւէտութիւնը բարձրացնում մարդկանց աշխատանքի։ հետեւաբար՝ ինքն էլ ա բարձրացնում։ ու չկիրառելով՝ մրցունակ չես (եթէ դա նշանակութիւն ունի)։
միւս կողմից՝ կախուածութիւնը առաջանում ա յսկայ ընկերութեան աբ֊ից։ որը դու չես կարող կրկնել։ իսկ ես չեմ սիրում օգտուել էն բաներով, որ ինքս չեմ կարող կրկնել։
եթէ չեմ կարող գրել, գոնէ կարող եմ շինել ծրագիրը։
իսկ ի՞նչ անել աբ֊ի դէպքում։
դէ, հիմա որ հասկանամ ինչ ա կատարւում, նաեւ ներբեռնել եմ openhermes մոդելը, լոկալ աշխատեցնում եմ։ այդ մասին պէտք ա առանձին պատմել։
մի կողմից՝ աբ ա որ իմ մեքենայի վրայ ա աշխատում, ծրագրակազմն էլ՝ ազատ։ միւս կողմից՝ արդէն վարժեցուած ա տուեալների յսկայական ծաւալների վրայ, որը ես չեմ կարող կրկնել։
ու ապա մի քանի հարց կայ։
անկախ նրանից՝ լոկալ ա թէ ամպի մէջ՝ ի՞նչ ա ինքը ուզում պատմել։ օրինակ՝ չի թոյլ տայ նեգատիւ արտայայտուել թէկուզ ինչ֊որ տէքի մասին։ ինչ֊որ կարծիք չես լսի իրանից, որ վիճելի ա, բայց գուցէ կուզէիր լսել։
դա դու կարող ես անել քո հետազօտութեան արդիւնքում, աբ֊ի հետ շփուելը՝ մի ռոբոտի հետ շփուել ա, որ փորձում ա բոլորի համար հասանելի ձեւով խօսել։
եւ աբ֊ն լրիւ կարող ա քեզ աննկատ ուղղորդել՝ աւելի լաւ, քան դա անում են էսօրուայ կորպորատիւ «սոցիալական ցանցերը»
օրինակ, էսօր ես չաթում անուանել եմ դեբեանի վարքագծի մի ձեւը՝ դեբիլութիւն, ու կատակ արել, որ դեբ մասը դեբեանի մէջ՝ դեբիլութիւն բառից ա։
ու իսկապէս ահաւոր չեմ հաւանում երբ օհ֊ը ինքնուրոյն սերուիսը սթարտ ա անում, ու աւտօսթարտի ցանկի մէջ աւելացնում։ հասկանում եմ՝ որ յարմարաւէտութեան համար ա անում, բայց յարմարաւէտութիւնը նաեւ նշանակում ա օրինակ իջեցնել անվտանգութիւնը։ ու իսկապէս, դէպք եղել ա, երբ բոլոր դեբեաններն ունեցել են խոցելի exim֊ի վարկած, որը սթարտ եղած ա եղել, ու որի պատճառով ռանսոմուէյր են բռնել։
ինչեւէ, էսպիսի պատասխաններ ստանալու համար պէտք ա ինքնուրոյն վարժեցնես քո ցանցը, ու քո ուզած տուեալների վրայ, երեւի։
գուցէ ապագայում USE ֆլագեր լինեն, որ թոյլ կը տան կարգաւորել վարժեցման ձեւը, բայց միեւնոյնն ա, նոյնիսկ դա ինձ համար բաւական «ֆայն» թիւնինգ չի։
ամէն դէպքում մենք մտնում ենք աբ֊ի դար, ուզում ենք դա թէ չէ։ ու էս մտքերը պիտի գան, անխուսափելիօրէն։
ու տէնց։
#աբ #արհեստական_բանականութիւն
մտածեցի, էս արհեստական բանականութեան դարաշրջանում, կարող ես ասել՝ գեներացրու ինձ կայծակ, մի հատ էլ, մի հատ էլ, մի հատ էլ, այ էս մէկը լաւ ա։
ու էլ աւելի ա արժեւորւում իսկական բռնած կայծակը։ ժապաւէնի վրայ։
որովհետեւ իսկական ա։
#իրողութիւն #իսկական #կայծակ #աբ #չգիտեմ #ֆոտօ
պէտք ա զբաղուել
https://huggingface.co/datasets
https://bigscience.huggingface.co/blog/bloom
https://en.wikipedia.org/wiki/BLOOM_(language_model)
#աբ #արհեստական_բանականութիւն #ազատութիւն #ծրագրակազմ #լեզու #հայերէն
#աբ #արհեստական_բանականութիւն #ռոբոտ #բոտ #համակարգիչ #էկրանահան
ջորդան պիտերսոնը զրուցում է կարլ մարքսի հետ։
աբ֊ի միջոցով ստացուած նկար։
#պիտերսոն #պետերսոն #մարքս #արուեստ #նկար #աբ #անախրոնիզմ #անաքրոնիզմ
աստուատ՝
#աբ
մէկը երէկ պատմեց, որ իրենց բանկը հրաժարուել ա տալ մէկին վարկ, որովհետեւ իրենց նէյրոնային ցանցը ենթադրել ա (իր խօսքերով՝ իմացել ա), որ այդ մարդը կազինոներում ա սիրում խաղալ։ ենթադրել ա մուտք֊ելքերի ցանկից։ #աբ #արհեստական_բանականութիւն