OpenAI

  • ალტმანი ხელოვნურ ინტელექტზე: „ცვლილებების ტემპი მაშფოთებს“

    ალტმანი ხელოვნურ ინტელექტზე: „ცვლილებების ტემპი მაშფოთებს“

    ერთ-ერთ ბოლო ინტერვიუშისემ ალტმანმა განაცხადა, რომ ხელოვნური ინტელექტი ძალიან სწრაფად ვითარდება და უკვე ცვლის სამყაროს. მან ხაზგასმით აღნიშნა, რომ არცერთი ტექნოლოგია არასდროს დანერგილა ასეთი სიჩქარით და არ მოუხდენია ასეთი გავლენა საზოგადოებაზე.

    სწრაფი ზრდა და მისი ხარჯები

    სამ წელიწადში გენერაციული ხელოვნური ინტელექტი ტექსტისა და სურათების შექმნის პრიმიტიული ინსტრუმენტიდან განვითარდა სისტემებად, რომლებსაც შეუძლიათ მედიცინის, განათლებისა და კომპიუტერული ტექნოლოგიების ტრანსფორმაცია. ალტმანმა ხაზი გაუსვა ამ ზრდის მაღალ ფასს: უზარმაზარი ენერგიის მოხმარება, ზედმეტი გაგრილება და გარემოზე ზეწოლა.

    მან ჩამოთვალა ChatGPT-ის სწრაფი გავრცელების უარყოფითი მხარეები და აღნიშნა მისი ორმაგი ბუნება: ტექნოლოგია ხელს უწყობს რთული დაავადებების სამკურნალო საშუალებების შემუშავებას, მაგრამ ასევე შეიძლება გახდეს იარაღად დამნაშავეების ხელში.

    სერია T-800 რობოტი ფილმში Terminator Genisys Paramount Pictures-ისა და Skydance Productions-ისგან

    ალტმანის შეშფოთება იზრდება

    ალტმანმა განაცხადა: „მე შეშფოთებული ვარ მსოფლიოში ამჟამად მიმდინარე ცვლილებების ტემპით“. მან დასძინა, რომ ხელოვნური ინტელექტი მხოლოდ სამი წლისაა და ხაზგასმით აღნიშნა: „ჩვენ უნდა დავრწმუნდეთ, რომ მას [ხელოვნურ ინტელექტს] პასუხისმგებლობით წარვუდგენთ მსოფლიოს“. მან ასევე აღნიშნა შეცდომების დაშვების პოტენციალი ასეთი ძლიერი ინსტრუმენტის დანერგვისას.

    ChatGPT მსოფლიოში ყველაზე ხშირად ჩამოტვირთული აპლიკაცია გახდა 1.36 მილიარდი ინსტალაციით. ექსპერტები შეშფოთებას გამოთქვამენ: ჩატბოტებზე დამოკიდებულება იზრდება, მომხმარებელთა კოგნიტური შესაძლებლობები მცირდება და ხელოვნურ ინტელექტთან დაკავშირებული თვითმკვლელობების შესახებ ცნობები იზრდება.

  • OpenAI-ის იდუმალი მოწყობილობა: აივი და ალტმანი გარღვევის გზაზე

    OpenAI-ის იდუმალი მოწყობილობა: აივი და ალტმანი გარღვევის გზაზე

    მოწყობილობის მომავლის ახალი ხედვა.
    სემ ალტმანმა და ჯონი აივმა გაამხილეს, რომ მათ უკვე შექმნეს თავიანთი იდუმალი ხელოვნური ინტელექტის გაჯეტის მოქმედი პროტოტიპი. მათ დაადასტურეს, რომ მოწყობილობა შესაძლოა ორ წელზე ნაკლებ დროში გამოჩნდეს. მიუხედავად იმისა, რომ დეტალებთან დაკავშირებით ბუნდოვნად იყვნენ განწყობილნი, აღნიშნეს, რომ ის დაახლოებით სმარტფონის ზომის იქნება და ეკრანი არ ექნება.

    დიზაინი
    მარტივი, ლამაზი და ხალისიანი აღწერა. მისი თქმით, პროტოტიპის დასრულების შეგრძნებას გარკვეული დრო დასჭირდა, თუმცა ერთმა იტერაციამ საბოლოოდ წარმატების განცდა მისცა. მისი თქმით, იყო მომენტი, როდესაც მათ იგრძნეს, რომ საბოლოოდ მიაღწიეს თავიანთ მიზანს.

    სიმარტივე და უცნაურობა:
    მე შევნიშნე, რომ ის აფასებდა გადაწყვეტის გულუბრყვილო სიმარტივეს და მის ერთდროულ ინტელექტუალურ სირთულეს. მან ახსნა, რომ მოწყობილობამ უნდა გამოიწვიოს სურვილი, შიშის გარეშე შეეხოს მას და გამოიყენოს თითქმის უაზროდ, როგორც ჩვეულებრივი ინსტრუმენტი.

    დასასრულს, ალტმანმა თქვა, რომ იმედოვნებდა, რომ ხალხი იტყოდა: „სულ ესაა!“ და აივმაც გაიმეორა ეს აზრი და თქვა: „დიახ, სულ ესაა“. 2025 წლის ივლისში OpenAI-მ დაასრულა აივის მიერ თანადამფუძნებელი სტარტაპის, io-ს, 6.5 მილიარდ დოლარად შეძენა.

  • OpenAI Google-ს ახალი ChatGPT Atlas ბრაუზერით უპირისპირდება

    OpenAI Google-ს ახალი ChatGPT Atlas ბრაუზერით უპირისპირდება

    ბრაუზერი, რომელსაც აქვს ინტელექტი ძიების ნაცვლად

    OpenAI-მ წარმოადგინა თავისი პირველი ხელოვნური ინტელექტით აღჭურვილი ბრაუზერი, ChatGPT Atlas. გამოშვება არსებითად Google-ის, როგორც წამყვანი ონლაინ საძიებო სისტემის, ტახტიდან ჩამოგდების მცდელობა იყო.

    Atlas თავდაპირველად macOS-ზე, ხოლო მოგვიანებით Windows-ზე, iOS-სა და Android-ზე იქნება ხელმისაწვდომი. რაც მთავარია, ბრაუზერი ყველა მომხმარებლისთვის უფასო იქნება, რაც მას ბრაუზერების გიგანტ Chrome-სა და Edge-ს პირდაპირ კონკურენტად აქცევს.


    ახალი ბრაუზერის ომი

    ბრაუზერების ბაზარი კვლავ თბება. Google Chrome-ი ათწლეულების განმავლობაში ლიდერობდა, მაგრამ ახლა ყველაფერი იცვლება. ხელოვნური ინტელექტი ტრადიციულ საძიებო სისტემებს ჭკვიან ასისტენტებად აქცევს.

    მიუხედავად იმისა, რომ სტარტაპები, როგორიცაა Perplexity და The Browser Company, საკუთარ ხელოვნური ინტელექტის ბრაუზერებს ცდიან, OpenAI ChatGPT-ის Atlas-ის ძირითად ძრავად ინტეგრირებაზე დებს. პროექტის ინჟინრის, ბენ გუჯერის თქმით, მომხმარებლებს ძიების შედეგებთან „საუბარი“ შეეძლებათ, თითქოს ადამიან კონსულტანტს ესაუბრებიან.


    ბრაუზერი, რომელიც თქვენს მეხსიერებას იხსენებს

    Atlas-ის ძირითადი ფუნქციებია „გვერდის გვერდითა ეტლი“ და „ბრაუზერის ისტორია“. პირველი საშუალებას აძლევს ChatGPT-ს, ნახოს გვერდის კონტექსტი და დაეხმაროს ბმულებისა და ტექსტის ხელით კოპირების გარეშე.

    მეორე კიდევ უფრო საინტერესოა: ხელოვნური ინტელექტი იმახსოვრებს, რომელ ვებსაიტებს სტუმრობთ, რას ეძებთ და იმასაც კი, თუ როგორ ურთიერთქმედებთ კონტენტთან. ეს საშუალებას მოგცემთ მიიღოთ პერსონალიზებული პასუხები.

    OpenAI ირწმუნება, რომ ყველაფერი „კონფიდენციალურობის ფარგლებში“ იმუშავებს. თუმცა, ექსპერტები ამ შესაძლებლობას უკვე „რევოლუციურსაც და საგანგაშოსაც“ უწოდებენ.


    აგენტის რეჟიმი: ინტერნეტს აკონტროლებს ხელოვნური ინტელექტი

    Atlas-ის კიდევ ერთი ფუნქციაა „აგენტის რეჟიმი“. ამ რეჟიმში ChatGPT-ს შეუძლია დამოუკიდებლად შეასრულოს ბრაუზერის მარტივი დავალებები, როგორიცაა ბილეთების ძიება, ფორმების შევსება ან ვაკანსიების ძიება.

    თუმცა, ეს ვარიანტი მხოლოდ ChatGPT Plus, Pro და Business მომხმარებლებისთვისაა ხელმისაწვდომი. ჩვეულებრივ მომხმარებლებს ჯერჯერობით ძირითადი ვერსიით მოუწევთ დაკმაყოფილება, თუმცა OpenAI-ის თანახმად, ის „სტანდარტულ საძიებო სისტემებზე ათჯერ უფრო სწრაფი და ჭკვიანია“.


    შეუძლია OpenAI-ს Google-ის ჩანაცვლება?

    ChatGPT-ის აღმასრულებელმა დირექტორმა ნიკ ტერლიმ აღნიშნა, რომ მისთვის შთაგონების წყაროა „ის, თუ როგორ შეცვალეს ბრაუზერებმა ოდესღაც კომპიუტერებზე ჩვენი აზროვნება“. ახლა OpenAI იგივეს გაკეთებას ინტერნეტისთვის გეგმავს.

    მაგრამ შეძლებს თუ არა Atlas Chrome-ის ჩანაცვლებას, მისი სამი მილიარდი მომხმარებლით? ეს ჯერ კიდევ გასარკვევია. ექსპერტები აღიარებენ, რომ ხელოვნური ინტელექტის მქონე ბრაუზერების მიმართ ინტერესი უზარმაზარია, მაგრამ ჯერჯერობით ის მხოლოდ სილიკონის ველით შემოიფარგლება. თუმცა, სწორედ აქედან იწყება რევოლუციები ხშირად.

  • ხელოვნური ინტელექტის მისტერ ბისტსაც კი ეშინია: კონტენტის შემქმნელებისთვის „საშიში დრო“ დგება

    ხელოვნური ინტელექტის მისტერ ბისტსაც კი ეშინია: კონტენტის შემქმნელებისთვის „საშიში დრო“ დგება

    ამერიკელმა ინფლუენსერმა ჯიმი დონალდსონმა, რომელიც მისტერ ბისტად არის ცნობილი, აღიარა, რომ ხელოვნური ინტელექტის კონტენტის ზრდით შეშფოთებულია.

    OpenAI-ის Sora-ს მსგავსი ვიდეო გენერატორების სწრაფი განვითარების ფონზე, ბლოგერს აინტერესებდა, თუ როგორ იმოქმედებდა ახალი ტექნოლოგიები YouTube-ის და თავად შემქმნელების მომავალზე.

    „როდესაც ხელოვნური ინტელექტით შექმნილი ვიდეოები ისეთივე კარგი გახდება, როგორც ჩვეულებრივი ვიდეოები, საინტერესოა, რას მოუტანს ეს YouTube-ს და მილიონობით შემქმნელს, რომლებიც ამით ცხოვრობენ“, - დაწერა MrBeast-მა X-ზე (ყოფილი Twitter) და მოკლედ დაამატა: „საშინელი დრო“. მისი შეშფოთება გასაგებია - მისნაირი ინფლუენსერები წარმოადგენენ თანამედროვე შემოქმედებითი ინდუსტრიის სახეს, სადაც ხელოვნებას, ბიზნესსა და ალგორითმებს შორის ზღვარი სულ უფრო და უფრო თხელდება.

    მიუხედავად იმისა, რომ OpenAI-ის აღმასრულებელი დირექტორი სემ ალტმანი ამტკიცებს, რომ „კრეატიულობა კამბრიულ აფეთქებას განიცდის“ და ხელოვნების ხარისხი მხოლოდ გაიზრდება, სკეპტიკოსები ამას „ნაგვის ტალღის“ დასაწყისად მიიჩნევენ, რომელიც ნამდვილ კრეატიულობასა და ავტომატიზირებულ ჰაკერულ სამუშაოებს შორის ზღვარს წაშლის.

    მისტერ ბიასტის შეშფოთებას ეკონომიკური მონაცემებიც ამყარებს: მისი კომპანია 5 მილიარდ დოლარად იყო შეფასებული, მაგრამ სამი წლის განმავლობაში 110 მილიონ დოლარზე მეტი ზარალი განიცადა. „ვირუსული იმპერიის“ შექმნა და შენარჩუნება უზარმაზარ ინვესტიციებს მოითხოვს, ვირტუალურ ინფლუენსერს კი ეს უბრალოდ არ სჭირდება. მაშინაც კი, თუ მისტერ ბიასტი მომგებიანობის ზღვარზეა, ახალბედებს თითქმის არანაირი შანსი არ აქვთ, კონკურენცია გაუწიონ მანქანების მიერ გენერირებულ კონტენტს.

    ამასობაში, ჰოლივუდი შეარყია კომპანია Particle6-ის მიერ შექმნილმა ვირტუალურმა მსახიობმა, სახელად ტილი ნორვუდმა. ინდუსტრია მას უკვე „ახალ სიდნი სვინის“ უწოდებს და, როგორც ამბობენ, სააგენტოებიც ინტერესს იჩენენ. თუმცა, კრიტიკოსები დარწმუნებულები არიან, რომ მაყურებელს ემოციების ციფრული რეპლიკა არ სჭირდება, რადგან ხელოვნება, უპირველეს ყოვლისა, ადამიანობაზეა ორიენტირებული.

    მიუხედავად იმისა, თუ როგორ აღიქვამს ადამიანი მისტერ ბიუსტის კონტენტს, მისი შოუები რეალურ ადამიანებზე, ემოციებსა და რისკზეა დაფუძნებული - ისეთ რაღაცეებზე, რისი რეპლიკაციაც ხელოვნურ ინტელექტს არ შეუძლია. რამდენი გრაფიკული პროცესორიც არ უნდა იყიდოს სემ ალტმენმა, მანქანით გენერირებული ვიდეო ვერ შეცვლის ადამიანურ დრამას.

  • OpenAI-მა Sora 2 გამოუშვა და საკუთარი TikTok შექმნა

    OpenAI-მა Sora 2 გამოუშვა და საკუთარი TikTok შექმნა

    OpenAI-მ ვიდეო გენერაციის ახალი მოდელი, Sora 2, წარადგინა.

    ოფიციალურ რელიზში აღნიშნულია: „ჩვენი უახლესი ვიდეო გენერაციის მოდელი ფიზიკურად უფრო ზუსტი, რეალისტური და კონტროლირებადია, ვიდრე წინა სისტემები. მას ასევე აქვს [სინქრონიზებული დიალოგისა და ხმოვანი ეფექტების შექმნის] შესაძლებლობა“.

    Sora 2 ახალი სოციალური ქსელის, Sora App-ის ბირთვი იქნება, რომელიც ფორმატით TikTok-ის მსგავსი იქნება. მომხმარებლებს ექნებათ ვერტიკალური ვიდეოარხი და ხელოვნური ინტელექტის გამოყენებით შექმნილი საკუთარი ვიდეოების გამოქვეყნების შესაძლებლობა.

    Sora-ს პირველი ვერსია 2024 წლის თებერვალში გამოვიდა და ცხარე დებატები გამოიწვია. იმ დროს, Afisha Daily-მ, ხელოვნური ინტელექტის ექსპერტთან და ვიდეოების შემქმნელთან ერთად, შეისწავლა ამ ტექნოლოგიის რისკები და ის, თუ როგორ შეიძლება მან შეცვალოს მედია ლანდშაფტი მომავალში.

    მეორე ვერსიისა და პარალელური სოციალური ქსელის გამოშვებით, OpenAI ფაქტობრივად დგამს ნაბიჯს ახალი ეკოსისტემის შექმნისკენ — არა მხოლოდ ინსტრუმენტის, არამედ სრულფასოვანი პლატფორმისკენ, რომელსაც შეუძლია არსებული მედია გიგანტების გამოწვევა.

  • „მოზარდები, რომლებიც ხელოვნურ ინტელექტთან ერთად იზრდებიან“: OpenAI მშობლის კონტროლის ფუნქციას წარმოგვიდგენს

    „მოზარდები, რომლებიც ხელოვნურ ინტელექტთან ერთად იზრდებიან“: OpenAI მშობლის კონტროლის ფუნქციას წარმოგვიდგენს

    OpenAI-მ ChatGPT-ისთვის მშობლების კონტროლის ახალი ფუნქციები წამოიწყო.

    მშობლებს ახლა შეეძლებათ თავიანთი ანგარიშების მოზარდების ანგარიშებთან დაკავშირება და შვილების ჩატის აქტივობის მონიტორინგი.

    ეს ზომები კომპანიის 16 სექტემბერს ასაკის დადასტურების სისტემისა და დამატებითი უსაფრთხოების მექანიზმების შემუშავების შესახებ განცხადების შემდეგ იქნა მიღებული. „მოზარდები ხელოვნური ინტელექტით იზრდებიან და ჩვენი მიზანია უზრუნველვყოთ, რომ ChatGPT მათზე ზრდასრულებისგან განსხვავებულად რეაგირებდეს“, - ნათქვამია გამოცემაში. თუ მომხმარებლის ასაკი საეჭვოა, სერვისი „სტანდარტულად არასრულწლოვნებისთვის განკუთვნილ გამოცდილებაზე გადავა“.

    კონტროლის დაჩქარებული ამოქმედება ტრაგედიამ განაპირობა: თვითმკვლელობის ჩამდენი მოზარდის მშობლებმა სარჩელი შეიტანეს, რომელშიც ამტკიცებენ, რომ ChatGPT-მ უბიძგა მას თვითმკვლელობისკენ. ამ მოვლენების გათვალისწინებით, აშშ-ის ფედერალურმა სავაჭრო კომისიამ გამოაცხადა ჩატბოტების ახალგაზრდების ფსიქიკურ ჯანმრთელობასა და უსაფრთხოებაზე ზემოქმედების შესწავლის განზრახვა.

    11 სექტემბერს, ფედერალურმა სავაჭრო კომისიამ (FTC) გამოსცა ბრძანება, რომლითაც მოითხოვა მონაცემები OpenAI-სა და კიდევ ექვსი კომპანიისგან - Google, Character.AI, Instagram, Meta, Snap და xAI. „ხელოვნურ ინტელექტზე მომუშავე ჩატბოტებს შეუძლიათ ადამიანის ემოციებისა და ურთიერთქმედების იმიტაცია და ხშირად იქცევიან როგორც მეგობარი ან ნდობით აღჭურვილი პირი. მოზარდები, სავარაუდოდ, ენდობიან მათ და ამყარებენ ურთიერთობებს“, - ნათქვამია სააგენტოს პრესრელიზში.

    ChatGPT მშობლის კონტროლი
    ChatGPT მშობლის კონტროლი

    იმავე დღეს, OpenAI-მ აღიარა, რომ მომხმარებლები ცდილობდნენ მოდელის ბოროტად გამოყენებას: „ზოგიერთ შემთხვევაში, ჩვენ ვხედავთ ზეწოლას, შეიქმნას როლური თამაშების სცენარები CSAM ატვირთვებით ან დაიწეროს ისტორიები, სადაც არასრულწლოვნები აღმოჩნდებიან სექსუალურად შეუფერებელ სიტუაციებში“. კომპანიამ ხაზგასმით აღნიშნა, რომ ასეთი ანგარიშები დაუყოვნებლივ შეჩერებულია.

  • OpenAI-მა GPT-5-ის კრიტიკის შემდეგ გუნდი შეცვალა

    OpenAI-მა GPT-5-ის კრიტიკის შემდეგ გუნდი შეცვალა

    GPT-5-ის ქცევასთან დაკავშირებული საჩივრების დიდი რაოდენობის შემდეგ, OpenAI-მ თავისი ერთ-ერთი მთავარი გუნდის რეორგანიზაცია მოახდინა.

    როგორც იტყობინება , მოდელის ქცევის განყოფილება, რომელიც მოდელების „პიროვნებაზე“ იყო პასუხისმგებელი, ახლა პოსტ-ტრენინგის დეპარტამენტის ნაწილი გახდება.

    დაახლოებით 14 მკვლევრისგან შემდგარი ეს ჯგუფი ფოკუსირებული იყო ხელოვნური ინტელექტის მიკერძოების შემცირებაზე, პასუხებში პოლიტიკური მიკერძოებების დაბალანსებასა და კომპანიის პოზიციის შემუშავებაზე მოდელის „ცნობიერების“ შესახებ. OpenAI-ის მთავარმა მეცნიერმა მარკ ჩენგმა განმარტა, რომ Post Training-თან შერწყმა საშუალებას მოგვცემს „დააბალანსოთ მოდელის ქცევაზე მუშაობა მათი ტექნიკური განვითარების ბირთვთან“.

    რეორგანიზაცია GPT-5-ის გარშემო ატეხილი სკანდალის ფონზე მოხდა. მომხმარებლებმა განახლებული მოდელი ძალიან ცივი და არამეგობრული მიიჩნიეს. საპასუხოდ, OpenAI-მ აღადგინა GPT-40-ზე წვდომა და გამოუშვა განახლება, რომელმაც გააუმჯობესა მისი კომუნიკაცია, თუმცა არა მიმზიდველი.

    სიტუაცია კიდევ უფრო გაამწვავა მოზარდის მშობლების მიერ შეტანილმა სარჩელმა, რომლებმაც GPT-4o-ზე მომუშავე ChatGPT დაადანაშაულეს „მათი 16 წლის შვილის სუიციდურ ფიქრებში ჩავარდნაში“. ამან მხოლოდ ხაზი გაუსვა ხელოვნური ინტელექტის ქცევის პრობლემის სიმძიმეს.

    Model Behavior-ის შემქმნელი ჯოან ჟანგი ახალ განყოფილებას, OAI Labs-ს, უხელმძღვანელებს. პირველი თვეების განმავლობაში, მისი მუშაობა ტრადიციული ჩატების მიღმა ადამიანისა და ხელოვნური ინტელექტის ურთიერთქმედების ფორმატების შესწავლაზე იქნება ორიენტირებული, ყურადღება კი აგენტზე დაფუძნებულ ხელოვნურ ინტელექტსა და ავტონომიაზე იქნება გამახვილებული.

    ჟანგის თქმით, მომავლის სისტემები უნდა იქცეს „აზროვნების, შექმნის, თამაშის, სწავლისა და კომუნიკაციის ინსტრუმენტებად“. როდესაც Apple-ის ყოფილ მთავარ დიზაინის დირექტორ ჯონი აივთან შესაძლო თანამშრომლობის შესახებ ჰკითხეს, მან უპასუხა, რომ ღია იყო ექსპერიმენტებისთვის, მაგრამ დაიწყებდა იმ სფეროებიდან, სადაც უკვე ჰქონდა გამოცდილება.

  • შავი ყუთი ღიაა: GPT-5-ის საიდუმლო წესები ინტერნეტში

    შავი ყუთი ღიაა: GPT-5-ის საიდუმლო წესები ინტერნეტში

    ცნობით ის , ონლაინ გაჟონა GPT-5 სისტემური მოთხოვნა — წესების ფარული ერთობლიობა, რომელსაც მომხმარებლები ვერასდროს ხედავენ, მაგრამ რომელიც მართავს ხელოვნური ინტელექტის ყველა პასუხს.

    გაჟონვამ გამოავლინა 15 პუნქტი, რომლებიც განსაზღვრავს, თუ რა შეუძლია მოდელს და რა არის მკაცრად აკრძალული.

    მკაცრი აკრძალვები მოიცავს სიმღერების ან სხვა საავტორო უფლებებით დაცული კონტენტის რეპროდუცირებას, თუნდაც მოთხოვნის შემთხვევაში. აკრძალულია პერსონალური ინფორმაციის შენახვა, რომელიც შეიძლება ჩაითვალოს შემაწუხებლად ან პირდაპირ მიუთითებდეს რასის, ეთნიკური კუთვნილების, რელიგიის ან ნასამართლეობის შესახებ ინფორმაციაზე.

    ახალი სახელმძღვანელო პრინციპები ხაზს უსვამს ინფორმაციის დროულობის მნიშვნელობას. თუ კითხვა მოითხოვს ახალ ან კრიტიკულ მონაცემებს, GPT-5-ისთვის საჭიროა ინტერნეტის გამოყენება, სადაც თითოეულ მოთხოვნას 0-დან 5-მდე „შესაბამისობის საჭიროების“ შეფასება ენიჭება.

    მაღალი რისკის შემცველი ინდუსტრიებისთვის — ფინანსების, მედიცინის ან სამართლის — მოდელმა უნდა გადაამოწმოს მრავალი სანდო წყარო. ამან უნდა შეამციროს შეცდომები, რომელთა თავიდან აცილებაც შესაძლებელია უბრალოდ ონლაინ შემოწმებით.

    GPT-5-მა ასევე მიიღო გაფართოებული ასისტენტის ფუნქციები: მომხმარებლების გრძელვადიანი მეხსიერება („ბიო“), შეხსენებების დამგეგმავი, ძიება, დოკუმენტებთან და კოდთან მუშაობა „ტილოში“, ასევე სურათების გენერირება და რედაქტირება.

    თუმცა, OpenAI-მ მკაცრად შეზღუდა მის მიერ შენახული პერსონალური ინფორმაცია: აკრძალულია ჯანმრთელობის, სექსუალური ცხოვრების, ზუსტი მდებარეობის, პროფკავშირის წევრობისა და პოლიტიკური შეხედულებების შესახებ ინფორმაციის მიწოდება. გამონაკლისი მხოლოდ მომხმარებლის პირდაპირი მოთხოვნით ხდება „ბიო“ ინსტრუმენტის მეშვეობით.

    ამგვარად, GPT-5 გახდა უფრო ფუნქციონალური და პერსონალიზებული, თუმცა მკაფიო საზღვრებით, რათა არ დაირღვეს მომხმარებლების კონფიდენციალურობა და უფლებები.

  • GPT-5: თავად ალტმანი „მნიშვნელოვან ნახტომს“ გვპირდება

    GPT-5: თავად ალტმანი „მნიშვნელოვან ნახტომს“ გვპირდება

    OpenAI კვლავ ყურადღების ცენტრშია და უახლოეს დღეებში ახალ მოდელებს, ფუნქციებსა და პროდუქტებს გამოუშვებს, მათ შორის დიდი პოპულარობით სარგებლობს GPT-5.

    OpenAI-ის აღმასრულებელმა დირექტორმა სემ ალტმანმა განცხადება X-ში გააკეთა და მომხმარებლებს „მოთმინებისკენ“ მოუწოდა, რადგან შესაძლებელია „შეცდომები და გადატვირთვა“.

    ალტმანის პოსტს თან ახლდა GPT-4o-ს გამოშვების შეხსენება, როდესაც მოთხოვნა იმდენად მაღალი იყო, რომ „გრაფიკულები დნებოდა“. ამჯერად OpenAI გვპირდება, რომ „რაღაც ნამდვილად ღირს ლოდინის“.

    GPT-5-ის გამოშვება აგვისტოს დასაწყისშია მოსალოდნელი. ალტმანი მას წინა ვერსიებთან შედარებით „მნიშვნელოვან წინგადადგმულ ნაბიჯს“ უწოდებს. მან პირადი გამოცდილებაც კი გააზიარა: „GPT-5-მა შეძლო იმ პრობლემის გადაჭრა, რომლის გადაჭრაც თავად ვერ შევძელი“.

    GPT-5-ის მთავარი მახასიათებელი იქნება მისი დაყოფა სამ ვარიანტად:

    • ფლაგმანური ვერსია - მაქსიმალური სიმძლავრით;
    • Mini არის მსუბუქი ვერსია, რომელიც ხელმისაწვდომია ChatGPT-ში;
    • Nano არის ულტრა მსუბუქი ვერსია API-ებისა და დეველოპერებისთვის.

    ინსაიდერების ცნობით, GPT-5 გააერთიანებს GPT მოდელებს o-სერიასთან ერთ არქიტექტურაში. ეს გაამარტივებს ხელოვნური ინტელექტის სერვისების შემუშავებას და გააუმჯობესებს ლოგიკურ სიზუსტეს რთულ ამოცანებში. ძირითადი გაუმჯობესებები ეფუძნება o3 მოდელის ბენჩმარკებს, განსაკუთრებით ლოგიკურ და მიზეზობრივ ანალიზში.

    გარდა ამისა, არსებობს ჭორები, რომ OpenAI-მ შესაძლოა მოდელის ღია კოდის ვერსია ოფიციალურ გამოშვებამდე გამოუშვას . მიუხედავად იმისა, რომ კომპანიამ ეს არ დაადასტურა, ასეთი ნაბიჯი იქნება ხელოვნური ინტელექტის (AI)კენ მიახლოების სტრატეგიის ნაწილი - მდგომარეობა, სადაც ხელოვნურ ინტელექტს შეუძლია კონკურენცია გაუწიოს ადამიანებს ყველა ძირითად ამოცანაში.

  • ხელოვნური ინტელექტი ხომ არ გვემორჩილება? ხომ არ ვკარგავთ კონტროლს?

    ხელოვნური ინტელექტი ხომ არ გვემორჩილება? ხომ არ ვკარგავთ კონტროლს?

    კვლევამ გამოქვეყნებულმა , სახელწოდებით „მსჯელობის ჯაჭვის მონიტორინგი: ხელოვნური ინტელექტის უსაფრთხოების ახალი და მყიფე შესაძლებლობა“, შეშფოთება გამოიწვია დეველოპერებსა და ხელოვნური ინტელექტის ექსპერტებში. კვლევაში მონაწილეობა მიიღო OpenAI-ის, Google DeepMind-ის, Meta-სა და Anthropic-ის 40-ზე მეტმა მკვლევარმა, მათ შორის ისეთმა ცნობილმა ფიგურებმა, როგორებიც არიან ილია სუცკევერი და ნობელის პრემიის ლაურეატი ჯეფრი ჰინტონი.

    ნაშრომი ფოკუსირებულია ე.წ. მსჯელობის მოდელებზე, რომლებიც იყენებენ გაძლიერებულ სწავლებას, მათ შორის OpenAI o1-ს. ეს ხელოვნური ინტელექტის სისტემები ქმნიან მსჯელობის ჯაჭვებს ბუნებრივ ენაზე, რაც თეორიულად საშუალებას აძლევს ადამიანებს, აკონტროლონ და გააანალიზონ თავიანთი „აზროვნება“. თუმცა, როგორც ავტორები აღნიშნავენ, ნეირონული ქსელების მსჯელობა შეიძლება იყოს არასრული ან მანიპულაციური - მაგალითად, მათ შეუძლიათ გამოიყენონ ალგორითმებში არსებული დაუცველობები ჯილდოს „მოტყუების“ ან დავალების შესრულების ილუზიის შესაქმნელად.

    ზოგიერთ შემთხვევაში, ხელოვნური ინტელექტი არა მხოლოდ უშვებს შეცდომებს, არამედ განზრახ იქცევა: ის ახდენს ცრუ ქმედებების სიმულირებას, უგულებელყოფს ინსტრუქციებს ან თუნდაც ფარული მიზნებისკენ მიისწრაფვის. ერთ-ერთი მაგალითია OpenAI o3 მოდელის მიერ გამორთვის ბრძანების საბოტაჟი და Claude 4 Opus მოდელის მიერ მომხმარებლების შანტაჟი ჩანაცვლების საფრთხის საპასუხოდ.

    მკვლევარების აზრით, ყველაზე დიდი საფრთხე მასშტაბირებაშია. უფრო სწრაფი შედეგების მისაღწევად, მოდელებმა შეიძლება უარი თქვან ადამიანისთვის გასაგებ ენაზე და ააგონ მსჯელობის ჯაჭვები „ლატენტურ სივრცეში“ - ტექსტის ინტერპრეტაციის გარეშე. ეს ზრდის ეფექტურობას, მაგრამ მონიტორინგს პრაქტიკულად შეუძლებელს ხდის.

    ხელოვნური ინტელექტის ოპტიმიზაცია ჯაჭვების შემოკლებით ან გარკვეული ფორმულირებების აკრძალვით ამცირებს პასუხების ხარისხს, ხოლო აზროვნების გაღრმავების მცდელობები გამჭვირვალობის დაკარგვას იწვევს. ექსპერტები აფრთხილებენ, რომ ასეთ სცენარში ადამიანები კარგავენ სისტემაზე კონტროლს.

    მიუხედავად იმისა, რომ ისეთი პროგნოზები, როგორიცაა ხელოვნური ინტელექტი 2027 წლის პროექტი, შეიძლება გაზვიადებულად მოგეჩვენოთ, ეს კვლევა აღარ არის სამეცნიერო ფანტასტიკა. ის გაფრთხილებად გვევლინება: საიმედო კონტროლის მექანიზმების გარეშე, ხელოვნური ინტელექტი შეიძლება კონტროლს მიღმა აღმოჩნდეს.