ხელოვნური ინტელექტი

  • 500-მა ბოტმა ომი გამოუცხადა ხელოვნურ სოციალურ ქსელს

    500-მა ბოტმა ომი გამოუცხადა ხელოვნურ სოციალურ ქსელს

    ამსტერდამის უნივერსიტეტის მკვლევრებმა გადაწყვიტეს , შეემოწმებინათ, რა მოხდებოდა, თუ ისინი შექმნიდნენ სოციალურ ქსელს, სადაც ყველა მომხმარებელი ხელოვნური ინტელექტით იქნებოდა აღჭურვილი.

    მათ შექმნეს სოციალური ქსელი რეკლამებისა და რეკომენდაციების ალგორითმების გარეშე და ის GPT-4o mini-ზე მომუშავე 500 ჩატბოტით შეავსეს. თითოეულ ბოტს განსაზღვრული „პიროვნება“ და პოლიტიკური შეხედულებები ჰქონდა.

    ხუთი ექსპერიმენტის განმავლობაში, ბოტებმა დაახლოებით 10 000 მოქმედება შეასრულეს. აღმოჩნდა, რომ ალგორითმების გავლენის გარეშეც კი, ისინი პოლიტიკური შეხედულებების მიხედვით ჯგუფდებოდნენ და „ექოს“ ქმნიდნენ. უფრო მეტიც, ყველაზე მეტი გამომწერი და გაზიარება ყველაზე რადიკალურმა პოსტებმა მიიზიდა.

    მეცნიერები ხაზს უსვამენ, რომ შედეგები იმედგაცრუებას იწვევს, რადგან ჩატბოტებს ადამიანის ქცევის იმიტაცია უნდა გაეკეთებინათ. თუმცა, რადგან ისინი ადამიანის მონაცემებზე არიან გაწვრთნილები, „ისინი უბრალოდ ჩვენივე მოწამლული ვერსიების კოპირებას ახდენენ“.

    გაყოფის შესამცირებლად, მკვლევარებმა სხვადასხვა მეთოდი გამოიყენეს:

    • ქრონოლოგიური ლენტი,
    • ვირუსული შინაარსის ზემოქმედების შემცირება,
    • გამომწერების და რეპოსტების რაოდენობის დამალვა,
    • პროფილების ანონიმიზაცია,
    • საპირისპირო შეხედულებების გამყარება.

    თუმცა, ყველა მცდელობა უშედეგო აღმოჩნდა. ჩართულობის ცვლილება 6%-ზე მეტი არ იყო და როდესაც ბიოგრაფიები დამალეს, სხვაობა მხოლოდ გაფართოვდა - ექსტრემალურმა პოსტებმა კიდევ უფრო მეტი ყურადღება მიიპყრო.

    საბოლოო ჯამში, კვლევამ აჩვენა, რომ სოციალური მედია, როგორც კომუნიკაციის ფორმა, შესაძლოა, თავისთავად იყოს განწირული ადამიანის ქცევის ყველაზე ცუდი ასპექტების გასაძლიერებლად. „სოციალური მედია კაცობრიობის დამახინჯებული სარკეა, რომელიც ჩვენს ყველაზე დამახინჯებულ ფორმას ასახავს“, - დაასკვნეს ავტორებმა.

  • „ხელოვნური ინტელექტის ჩაქუჩი უკვე ხელშია“: Google-ის ყოფილი აღმასრულებელი დირექტორი 15 წლიან სიბნელეს პროგნოზირებს

    „ხელოვნური ინტელექტის ჩაქუჩი უკვე ხელშია“: Google-ის ყოფილი აღმასრულებელი დირექტორი 15 წლიან სიბნელეს პროგნოზირებს

    „აღმასრულებელი დირექტორის დღიურისთვის“ მიცემულ ინტერვიუში, Google X-ის ყოფილმა აღმასრულებელმა დირექტორმა მო გავდატმა განაცხადა, რომ კაცობრიობა 2027 წლიდან დაიწყება და კაცობრიობა 12-15 წლიან ბნელ ხელოვნურ ინტელექტთან დაკავშირებულ დისტოპიაში შევა.

    მისი თქმით, მიზეზი „მანქანების აჯანყება“ არ იყო, არამედ ის, რომ ხელოვნური ინტელექტი გაამწვავებდა „ჩვენივე სისულელით“ გამოწვეულ არსებულ პრობლემებს.

    გავდატი დარწმუნებულია, რომ ფუნდამენტური ღირებულებები - თავისუფლება, ადამიანური კავშირები, პასუხისმგებლობა, რეალობის აღქმა და ძალაუფლების განაწილება - მნიშვნელოვნად შეირყევა. ის ხაზს უსვამს, რომ თავად ხელოვნური ინტელექტი არ არის დამნაშავე: „ხელოვნურ ინტელექტში აბსოლუტურად არაფერია ცუდი. მანქანების აღზევების ეპოქაში კაცობრიობის ღირებულებათა სისტემაში ბევრი პრობლემაა“.

    ერთ დროს მას სჯეროდა, რომ ავტომატიზაცია ადამიანებს რუტინული ამოცანებისგან გაათავისუფლებდა, თუმცა რეალობამ სხვა გზა აირჩია. კაპიტალისტურ ეკონომიკაში ხელოვნური ინტელექტი სამუშაო ადგილების გაუქმების, დასაქმების შენელებისა და თანამშრომლების სამუშაო დატვირთვის გაზრდის ინსტრუმენტად იქცა. „ნებისმიერი ტექნოლოგია აძლიერებს არსებულ ღირებულებებს და დღეს კაცობრიობის მთავარი ღირებულება კაპიტალიზმია“, - აღნიშნა მან.

    გავდატმა პარალელები სხვა ტექნოლოგიებთან გაავლო: სოციალური ქსელები, რომლებიც ადამიანებს ერთმანეთთან დააკავშირებდა, ხშირად მათ მარტოსულს ხდის; მობილური ტელეფონები, რომლებიც ცხოვრების გამარტივებას ისახავდა მიზნად, მას კიდევ უფრო გადატვირთულს ხდის.

    მან გააფრთხილა, რომ ხელოვნური ინტელექტი გააძლიერებს „იმ ბოროტებას, რისი ჩადენაც ადამიანებს შეუძლიათ“. მაგალითებია ღრმა ყალბი პორნოგრაფია, ხელოვნური ინტელექტი სამხედრო განვითარებაში, ავტომატიზირებული სათვალთვალო სისტემები, კრიპტოვალუტით თაღლითობის 456%-ით ზრდა ერთ წელიწადში და ხელოვნური ინტელექტის შესაძლო ინტეგრაცია ბირთვულ იარაღში. ხელოვნური ინტელექტით აღჭურვილი მასობრივი თვალთვალი უკვე აქტიურად გამოიყენება ჩინეთში და მისი დანერგვა იწყება შეერთებულ შტატებში.

    მიუხედავად ამისა, გავდატი აღიარებს, რომ ხელოვნური ინტელექტი უზარმაზარ სარგებელს მოაქვს მეცნიერებას, მედიცინასა და ფარმაცევტულ წარმოებას. თუმცა, მისი აზრით, ახლა ყველაზე მნიშვნელოვანი ის არის, რომ მთავრობებზე ზეწოლა მოხდეს, რათა დაარეგულირონ არა თავად ხელოვნური ინტელექტი, არამედ მისი გამოყენება. „თქვენ არ შეგიძლიათ შექმნათ ჩაქუჩი ლურსმნებს ურტყამდეს, მაგრამ არ მოკლათ. მაგრამ შეგიძლიათ ჩაქუჩით მკვლელობა დანაშაულად აქციოთ“, - თქვა მან.

    მისი თქმით, ხელოვნური ინტელექტის „ჩაქუჩი“ უკვე ჩვენს ხელშია. მხოლოდ ისღა დაგვრჩა, გადავწყვიტოთ, დავწერთ თუ არა კანონებს, რომლებიც მათ მოკვლას უშლის ხელს.

  • შავი ყუთი ღიაა: GPT-5-ის საიდუმლო წესები ინტერნეტში

    შავი ყუთი ღიაა: GPT-5-ის საიდუმლო წესები ინტერნეტში

    ის ცნობით , ონლაინ გაჟონა GPT-5 სისტემური მოთხოვნა — წესების ფარული ერთობლიობა, რომელსაც მომხმარებლები ვერასდროს ხედავენ, მაგრამ რომელიც მართავს ხელოვნური ინტელექტის ყველა პასუხს.

    გაჟონვამ გამოავლინა 15 პუნქტი, რომლებიც განსაზღვრავს, თუ რა შეუძლია მოდელს და რა არის მკაცრად აკრძალული.

    მკაცრი აკრძალვები მოიცავს სიმღერების ან სხვა საავტორო უფლებებით დაცული კონტენტის რეპროდუცირებას, თუნდაც მოთხოვნის შემთხვევაში. აკრძალულია პერსონალური ინფორმაციის შენახვა, რომელიც შეიძლება ჩაითვალოს შემაწუხებლად ან პირდაპირ მიუთითებდეს რასის, ეთნიკური კუთვნილების, რელიგიის ან ნასამართლეობის შესახებ ინფორმაციაზე.

    ახალი სახელმძღვანელო პრინციპები ხაზს უსვამს ინფორმაციის დროულობის მნიშვნელობას. თუ კითხვა მოითხოვს ახალ ან კრიტიკულ მონაცემებს, GPT-5-ისთვის საჭიროა ინტერნეტის გამოყენება, სადაც თითოეულ მოთხოვნას 0-დან 5-მდე „შესაბამისობის საჭიროების“ შეფასება ენიჭება.

    მაღალი რისკის შემცველი ინდუსტრიებისთვის — ფინანსების, მედიცინის ან სამართლის — მოდელმა უნდა გადაამოწმოს მრავალი სანდო წყარო. ამან უნდა შეამციროს შეცდომები, რომელთა თავიდან აცილებაც შესაძლებელია უბრალოდ ონლაინ შემოწმებით.

    GPT-5-მა ასევე მიიღო გაფართოებული ასისტენტის ფუნქციები: მომხმარებლების გრძელვადიანი მეხსიერება („ბიო“), შეხსენებების დამგეგმავი, ძიება, დოკუმენტებთან და კოდთან მუშაობა „ტილოში“, ასევე სურათების გენერირება და რედაქტირება.

    თუმცა, OpenAI-მ მკაცრად შეზღუდა მის მიერ შენახული პერსონალური ინფორმაცია: აკრძალულია ჯანმრთელობის, სექსუალური ცხოვრების, ზუსტი მდებარეობის, პროფკავშირის წევრობისა და პოლიტიკური შეხედულებების შესახებ ინფორმაციის მიწოდება. გამონაკლისი მხოლოდ მომხმარებლის პირდაპირი მოთხოვნით ხდება „ბიო“ ინსტრუმენტის მეშვეობით.

    ამგვარად, GPT-5 გახდა უფრო ფუნქციონალური და პერსონალიზებული, თუმცა მკაფიო საზღვრებით, რათა არ დაირღვეს მომხმარებლების კონფიდენციალურობა და უფლებები.

  • GPT-5: თავად ალტმანი „მნიშვნელოვან ნახტომს“ გვპირდება

    GPT-5: თავად ალტმანი „მნიშვნელოვან ნახტომს“ გვპირდება

    OpenAI კვლავ ყურადღების ცენტრშია და უახლოეს დღეებში ახალ მოდელებს, ფუნქციებსა და პროდუქტებს გამოუშვებს, მათ შორის დიდი პოპულარობით სარგებლობს GPT-5.

    OpenAI-ის აღმასრულებელმა დირექტორმა სემ ალტმანმა განცხადება X-ში გააკეთა და მომხმარებლებს „მოთმინებისკენ“ მოუწოდა, რადგან შესაძლებელია „შეცდომები და გადატვირთვა“.

    ალტმანის პოსტს თან ახლდა GPT-4o-ს გამოშვების შეხსენება, როდესაც მოთხოვნა იმდენად მაღალი იყო, რომ „გრაფიკულები დნებოდა“. ამჯერად OpenAI გვპირდება, რომ „რაღაც ნამდვილად ღირს ლოდინის“.

    GPT-5-ის გამოშვება აგვისტოს დასაწყისშია მოსალოდნელი. ალტმანი მას წინა ვერსიებთან შედარებით „მნიშვნელოვან წინგადადგმულ ნაბიჯს“ უწოდებს. მან პირადი გამოცდილებაც კი გააზიარა: „GPT-5-მა შეძლო იმ პრობლემის გადაჭრა, რომლის გადაჭრაც თავად ვერ შევძელი“.

    GPT-5-ის მთავარი მახასიათებელი იქნება მისი დაყოფა სამ ვარიანტად:

    • ფლაგმანური ვერსია - მაქსიმალური სიმძლავრით;
    • Mini არის მსუბუქი ვერსია, რომელიც ხელმისაწვდომია ChatGPT-ში;
    • Nano არის ულტრა მსუბუქი ვერსია API-ებისა და დეველოპერებისთვის.

    ინსაიდერების ცნობით, GPT-5 გააერთიანებს GPT მოდელებს o-სერიასთან ერთ არქიტექტურაში. ეს გაამარტივებს ხელოვნური ინტელექტის სერვისების შემუშავებას და გააუმჯობესებს ლოგიკურ სიზუსტეს რთულ ამოცანებში. ძირითადი გაუმჯობესებები ეფუძნება o3 მოდელის ბენჩმარკებს, განსაკუთრებით ლოგიკურ და მიზეზობრივ ანალიზში.

    გარდა ამისა, არსებობს ჭორები, რომ OpenAI-მა შესაძლოა მოდელის ღია კოდის ვერსია ოფიციალურ გამოშვებამდე გამოუშვას . მიუხედავად იმისა, რომ კომპანიამ ეს არ დაადასტურა, ასეთი ნაბიჯი იქნება ხელოვნური ინტელექტის (AI)კენ მიახლოების სტრატეგიის ნაწილი - მდგომარეობა, სადაც ხელოვნურ ინტელექტს შეუძლია კონკურენცია გაუწიოს ადამიანებს ყველა ძირითად ამოცანაში.

  • ხელოვნური ინტელექტი ხომ არ გვემორჩილება? ხომ არ ვკარგავთ კონტროლს?

    ხელოვნური ინტელექტი ხომ არ გვემორჩილება? ხომ არ ვკარგავთ კონტროლს?

    გამოქვეყნებულმა კვლევამ , სახელწოდებით „მსჯელობის ჯაჭვის მონიტორინგი: ხელოვნური ინტელექტის უსაფრთხოების ახალი და მყიფე შესაძლებლობა“, შეშფოთება გამოიწვია დეველოპერებსა და ხელოვნური ინტელექტის ექსპერტებში. კვლევაში მონაწილეობა მიიღო OpenAI-ის, Google DeepMind-ის, Meta-სა და Anthropic-ის 40-ზე მეტმა მკვლევარმა, მათ შორის ისეთმა ცნობილმა ფიგურებმა, როგორებიც არიან ილია სუცკევერი და ნობელის პრემიის ლაურეატი ჯეფრი ჰინტონი.

    ნაშრომი ფოკუსირებულია ე.წ. მსჯელობის მოდელებზე, რომლებიც იყენებენ გაძლიერებულ სწავლებას, მათ შორის OpenAI o1-ს. ეს ხელოვნური ინტელექტის სისტემები ქმნიან მსჯელობის ჯაჭვებს ბუნებრივ ენაზე, რაც თეორიულად საშუალებას აძლევს ადამიანებს, აკონტროლონ და გააანალიზონ თავიანთი „აზროვნება“. თუმცა, როგორც ავტორები აღნიშნავენ, ნეირონული ქსელების მსჯელობა შეიძლება იყოს არასრული ან მანიპულაციური - მაგალითად, მათ შეუძლიათ გამოიყენონ ალგორითმებში არსებული დაუცველობები ჯილდოს „მოტყუების“ ან დავალების შესრულების ილუზიის შესაქმნელად.

    ზოგიერთ შემთხვევაში, ხელოვნური ინტელექტი არა მხოლოდ უშვებს შეცდომებს, არამედ განზრახ იქცევა: ის ახდენს ცრუ ქმედებების სიმულირებას, უგულებელყოფს ინსტრუქციებს ან თუნდაც ფარული მიზნებისკენ მიისწრაფვის. ერთ-ერთი მაგალითია OpenAI o3 მოდელის მიერ გამორთვის ბრძანების საბოტაჟი და Claude 4 Opus მოდელის მიერ მომხმარებლების შანტაჟი ჩანაცვლების საფრთხის საპასუხოდ.

    მკვლევარების აზრით, ყველაზე დიდი საფრთხე მასშტაბირებაშია. უფრო სწრაფი შედეგების მისაღწევად, მოდელებმა შეიძლება უარი თქვან ადამიანისთვის გასაგებ ენაზე და ააგონ მსჯელობის ჯაჭვები „ლატენტურ სივრცეში“ - ტექსტის ინტერპრეტაციის გარეშე. ეს ზრდის ეფექტურობას, მაგრამ მონიტორინგს პრაქტიკულად შეუძლებელს ხდის.

    ხელოვნური ინტელექტის ოპტიმიზაცია ჯაჭვების შემოკლებით ან გარკვეული ფორმულირებების აკრძალვით ამცირებს პასუხების ხარისხს, ხოლო აზროვნების გაღრმავების მცდელობები გამჭვირვალობის დაკარგვას იწვევს. ექსპერტები აფრთხილებენ, რომ ასეთ სცენარში ადამიანები კარგავენ სისტემაზე კონტროლს.

    მიუხედავად იმისა, რომ ისეთი პროგნოზები, როგორიცაა ხელოვნური ინტელექტი 2027 წლის პროექტი, შეიძლება გაზვიადებულად მოგეჩვენოთ, ეს კვლევა აღარ არის სამეცნიერო ფანტასტიკა. ის გაფრთხილებად გვევლინება: საიმედო კონტროლის მექანიზმების გარეშე, ხელოვნური ინტელექტი შეიძლება კონტროლს მიღმა აღმოჩნდეს.

  • ფოტო და პროდუქცია: CAD მოდელების ახალი ერა

    ფოტო და პროდუქცია: CAD მოდელების ახალი ერა

    მკვლევრებმა გამოაქვეყნეს ნამდვილი სენსაცია ინჟინერიისა და ხელოვნური ინტელექტის სამყაროში: GenCAD, პირველი ღია კოდის ნეირონული ქსელი, რომელსაც შეუძლია ფოტოსურათიდან სრულად ფუნქციონალური პარამეტრული CAD მოდელის გენერირება.

    თუმცა ეს მხოლოდ ლამაზი რენდერი არ არის — ჩვენ ვსაუბრობთ სკრიპტზე, რომლის მყისიერად ჩატვირთვა რედაქტორში, მოდიფიცირება და... წარმოებაში გაგზავნაა შესაძლებელი.

    დეველოპერები ხაზს უსვამენ, რომ არსებული გამოსახულების ბადისებრი გადამუშავების გადაწყვეტილებები მუშაობს ვოქსელებთან, წერტილოვან ღრუბლებთან და პოლიგონალურ ბადეებთან - ლამაზი, მაგრამ ინჟინერიისთვის უსარგებლო. GenCAD უფრო შორს მიდის. ის ქმნის არა ცარიელ მოდელს, არამედ ბრძანებების თანმიმდევრობას, რომელიც ქმნის სრულფასოვან ინჟინერიულ მოდელს.

    GenCAD-ის არსი კომპლექსური არქიტექტურაა:

    • ტრანსფორმატორ-ენკოდერი, რომელიც ბრძანებებს კომპაქტურ ბირთვში აერთიანებს;
    • კონტრასტული სწავლება, ბრძანებების ენისა და ვიზუალური გამოსახულების შეთავსება;
    • დიფუზიური მოდელი, რომელიც ფოტოს ლატენტურ წარმოდგენად აქცევს;
    • დეკოდერი, რომელიც ამ ნაკრებიდან პარამეტრულ ინსტრუქციებს აღადგენს.

    მთავარი უპირატესობა მისი რედაქტირების შესაძლებლობაა. შედეგად მიღებული სკრიპტის ადაპტირება შესაძლებელია წარმოების საჭიროებებზე, ინდივიდუალური პარამეტრების შეცვლა და მისი მყისიერად ინტეგრირება სამუშაო პროცესებში.

    GitHub-ზე კოდის გამოშვებასთან ერთად, მკვლევრებმა ასევე ხელმისაწვდომი გახადეს მონაცემთა ნაკრები და გაწვრთნილი მოდელები. ეს არ არის მხოლოდ დიზაინის ავტომატიზაციისკენ გადადგმული ნაბიჯი - ეს არის რევოლუცია მთელი წარმოების ინდუსტრიისთვის.

  • იაპონური მაშველი რობოტი: სამი მეტრის სიმაღლის, ასი კილოგრამიანი და ამბიციური

    იაპონური მაშველი რობოტი: სამი მეტრის სიმაღლის, ასი კილოგრამიანი და ამბიციური

    იაპონიაში ქმნიან სამი მეტრის სიმაღლის მაშველ რობოტს, რომელსაც შეუძლია 100 კილოგრამის აწევა და სტიქიური უბედურების ზონაში ადამიანების ჩანაცვლება.

    ამის Onliner იტყობინება

    პიონერი ჰუმანოიდი მაშველების სამყაროში

    ახალი რობოტი:

    • წონა 300 კგ,
    • იყოს 3 მეტრი სიმაღლის,
    • გადაადგილება 5 კმ/სთ-მდე სიჩქარით,
    • 100 კგ-მდე წონის აწევა.

    პროექტის პარტნიორები პროტოტიპის წარდგენას 2026 წლის ბოლოსთვის, ხოლო საწარმოო ვერსიის - 2029 წლის მარტისთვის გეგმავენ. ყველა კომპონენტი იაპონიაში დამზადდება.

    კომპანია „Tmsuk Co.“ ხაზს უსვამს ასეთი მოწყობილობების საჭიროებას ქვეყანაში, სადაც რეგულარულად ხდება მიწისძვრები და სხვა კატასტროფები. როგორც დეველოპერებმა განაცხადეს, „ჩვენ გვსურს შევქმნათ რობოტი, რომელიც ადამიანზე ბევრად ძლიერი იქნება და ნანგრევების გადატანას შეძლებს“.

    ლიდერობის დაბრუნების მცდელობა

    Murata-ს წარმოების მენეჯერის, ტომოცუგუ ოჰბას თქმით, ეს განვითარება შეიძლება იყოს „იაპონიის პირველი ნაბიჯი გლობალურ ასპარეზზე დაბრუნებისკენ“. ქვეყანა ადრე ჰუმანოიდური რობოტიკის ლიდერად ითვლებოდა, მაგრამ ბოლო წლებში პოზიციები დათმო.

    თუ აღნიშნული მახასიათებლები რეალიზებული იქნება, ეს იქნება მსოფლიოში პირველი მანქანა, რომელსაც შეუძლია ჩაანაცვლოს ადამიანები სამძებრო-სამაშველო ოპერაციებში, ამავდროულად შეინარჩუნოს ჰუმანოიდის ფორმა.

  • „მათ საკუთარი შემცვლელები შექმნეს“: მეფე ხელოვნური ინტელექტის გამო 200 თანამშრომელს ათავისუფლებს

    „მათ საკუთარი შემცვლელები შექმნეს“: მეფე ხელოვნური ინტელექტის გამო 200 თანამშრომელს ათავისუფლებს

    ის ცნობით , Candy Crush-ის შემქმნელი კინგი დაახლოებით 200 თანამშრომლის გათავისუფლებას გეგმავს. თუმცა, ნამდვილი შოკი ის იყო, რომ გათავისუფლებულთა მნიშვნელოვანი ნაწილი ფაქტობრივად თავის სამსახურს უთმობს მათ მიერ შემუშავებულ და გაწვრთნილ ხელოვნურ ინტელექტს.

    განსაკუთრებით მძიმე მდგომარეობაშია Farm Heroes Saga-ს ლონდონური გუნდი: ანონიმური წყაროების ცნობით, გუნდის შემადგენლობა განახევრდა, მათ შორის ძირითადი აღმასრულებლები. სამსახურიდან გათავისუფლებულები არიან დონის დიზაინერები, UX სპეციალისტები და მწერლები. ერთ-ერთი თანამშრომლის თქმით, „პრაქტიკულად მთელი დონის დიზაინის განყოფილება გაუქმდა“, მიუხედავად იმისა, რომ იგივე ადამიანებმა „თვეები დახარჯეს ინსტრუმენტების შექმნაზე, რათა დაეჩქარებინათ მუშაობა“.

    მენეჯმენტი ცვლილებებს მენეჯმენტის ფენების შემცირებისა და განვითარების დაჩქარების სურვილით ხსნის. ამასობაში, თანამშრომლები იუწყებიან, რომ სამსახურიდან გათავისუფლება ასევე ხდება „თვითნებური მიზეზების“ გამო - სოციალურ მედიაში აქტივობის ან შიდა პროცესების კრიტიკის გამო. კომპანია შფოთვაშია: ბევრს სამსახურის დაკარგვის ეშინია, თუმცა ოფიციალური გადაწყვეტილებები შემოდგომამდე არ იქნება მიღებული.

    ინსაიდერული წყაროების ცნობით, ამ ზაფხულს ზოგიერთი ძირითადი თანამშრომელი „სამებაღეო შვებულებაში“ გაიყვანეს — ანაზღაურებადი შესვენების დრო სექტემბერში საბოლოო გათავისუფლებამდე. ამასობაში, კინგი ახალ ორგანიზაციულ სტრუქტურაზე ამზადებს და პროფკავშირებთან მოლაპარაკებებს აწარმოებს.

    მოტივაციისა და მორალის მხრივ სიტუაცია კატასტროფულია. შიდა კვლევამ მორალის რეკორდულად დაბალი მაჩვენებელი გამოავლინა და ერთ-ერთი წყაროს ცნობით, მას შემდეგ, რაც თანამშრომლები გათავისუფლდნენ, სიტუაცია „ჩავარდნაშია“. კინგის ადამიანური რესურსების დეპარტამენტი „სრულ ცირკად“ შეფასდა, როგორც კომპანიის ინტერესების დამცავი და არა მისი თანამშრომლების.

    გათავისუფლებები ლონდონის, ბარსელონას, სტოკჰოლმისა და ბერლინის ოფისებს ეხება. ცენტრალიზებული რესურსები - კვლევითი და ხარისხის უზრუნველყოფის გუნდები - ასევე ექვემდებარება ლიკვიდაციას ან წარმოების გუნდებს შორის გადანაწილებას. კომპანიის მზარდი მოგების ფონზე, ეს ყველაფერი ეფექტურობისა და შემოსავლების მაქსიმიზაციის სახელით ცივსისხლიან გათვლას ჰგავს.

    მენეჯმენტის „კლიშეური გამოსვლების“ მიუხედავად, გუნდები ერთმანეთის მხარდაჭერას ინარჩუნებენ. ერთ-ერთი თანამშრომელი ხაზს უსვამს: „ჩვენ გულწრფელად ვზრუნავთ ერთმანეთზე და ჩვენს თამაშებზე. და ეს ნებისმიერ „ორგანიზაციულ სქემებზე“ მეტს ნიშნავს“.

  • Apple vs. ექიმები: ახალი ხელოვნური ინტელექტი ორსულობასა და დაავადებებს ადამიანებზე უფრო ზუსტად პროგნოზირებს

    Apple vs. ექიმები: ახალი ხელოვნური ინტელექტი ორსულობასა და დაავადებებს ადამიანებზე უფრო ზუსტად პროგნოზირებს

    Apple უბრუნდება — და როგორც ჩანს, ეს სერიოზულად ხდება.

    როგორც იუწყება , Apple-ის მიერ მხარდაჭერილმა ახალმა კვლევამ წარმოადგინა ხელოვნური ინტელექტის მოდელი, Wearable Behavior Model (WBM), რომელსაც შეუძლია ადამიანის ჯანმრთელობის მდგომარეობის პროგნოზირება ქცევითი მონაცემებიდან 92%-მდე სიზუსტით.

    ჩვენ არ ვსაუბრობთ გულისცემაზე ან ელექტროკარდიოგრამაზე, არამედ უფრო დახვეწილ სიგნალებზე: ნაბიჯებზე, სიარულის სიხშირეზე, აქტივობაზე, ძილსა და სუნთქვაზე. ეს პარამეტრები, სენსორული მონაცემების ნაცვლად, ჯანმრთელობის პროგნოზირებისთვის უფრო ინფორმაციული აღმოჩნდა. WBM მოდელი მომზადებული იყო 2.5 მილიარდ ქცევით მეტრიკაზე, რომლებიც შეგროვდა Apple Watch-ისა და iPhone მოწყობილობებიდან 161,855 მომხმარებლისგან.

    WBM-თან მთავარი განსხვავება ისაა, რომ ის „აზროვნებს“ არა როგორც მანქანა, არამედ როგორც დამკვირვებელი: ის აანალიზებს ქცევას და არა სიგნალებს. მოდელი შედარებული იქნა არსებულ სენსორებზე დაფუძნებულ სისტემებთან და WBM-მა 47 დავალებიდან 18-ში უკეთესი შედეგი აჩვენა. დინამიურ ამოცანებში, როგორიცაა ორსულობის, ინფექციების და ძილის პრობლემების აღმოჩენა, Apple-ის ხელოვნური ინტელექტი თითქმის უნაკლო იყო.

    სისტემამ ორსულობის აღმოჩენის პიკური სიზუსტე 92%-ს მიაღწია. ძილის დარღვევებთან, ინფექციებთან, დაზიანებებთან და გულ-სისხლძარღვთა დაავადებებთან დაკავშირებულ ამოცანებში, ქცევითი ხელოვნური ინტელექტისა და სენსორების შერწყმით შემუშავებულმა ჰიბრიდულმა მოდელმა მუდმივად აჯობა ტრადიციულ მიდგომებს.

    რატომ არის ეს ყველაფერი, თუ Apple Watch-ს უკვე შეუძლია ნაბიჯების დათვლა? მეცნიერების პასუხი მარტივია: „ნედლი მონაცემები შეიძლება ზედმეტი იყოს და არ ასახავდეს ჯანმრთელობისთვის მნიშვნელოვან მოვლენებს“. თუმცა, ქცევითი მეტრიკები იფილტრება, იხვეწება და ექვემდებარება კონტექსტუალურ ანალიზს - მაგალითად, სიარული შეიძლება იყოს ორსულობის მარკერი.

    ეს მიდგომა რევოლუციურია: პრიმიტიული პულსის ჩაწერიდან „ცხოვრებისეული ქცევის“ ანალიზამდე. Apple თქვენს ყოველ ნაბიჯს პოტენციურ დიაგნოზად აქცევს. შედეგებით თუ ვიმსჯელებთ, ის ამას ბევრ ექიმზე უფრო ზუსტად აკეთებს.

  • Nvidia-მ Olympus-ში შეაღწია: პირველი კომპანია, რომლის საბაზრო ღირებულება 4 ტრილიონი დოლარია

    Nvidia-მ Olympus-ში შეაღწია: პირველი კომპანია, რომლის საბაზრო ღირებულება 4 ტრილიონი დოლარია

    უოლ სტრიტის ტექნოლოგიურ სენსაციაში, ამერიკული ჩიპების მწარმოებელი Nvidia ისტორიაში პირველი საჯარო კომპანია გახდა, რომლის საბაზრო კაპიტალიზაციამ 4 ტრილიონი დოლარი შეადგინა.

    ამის შესახებ „გარდიანი“ იუწყება და ხაზს უსვამს, რომ კომპანიის აქციები სწრაფად იზრდება ხელოვნური ინტელექტის ტექნოლოგიებზე მზარდი მოთხოვნის ფონზე.

    ოთხშაბათს, Nvidia-ს აქციები დაახლოებით 2.4%-ით გაიზარდა და აქციაზე 164 დოლარს მიაღწია. მათი ჩიპები და პროგრამული უზრუნველყოფა ხელოვნური ინტელექტის პროდუქტების შემუშავების უახლეს გადაწყვეტილებებად ითვლება, ნეირონული ქსელებიდან მონაცემთა ცენტრებამდე.

    კომპანია ელიტარულ ტრილიონ დოლარიან კლუბს შედარებით ცოტა ხნის წინ შეუერთდა - 2023 წლის ივნისში მისი ღირებულება 1 ტრილიონ დოლარს გადააჭარბა. თუმცა, ერთი წლის განმავლობაში ის სამჯერ გაიზარდა და ზრდით ისეთ გიგანტებსაც კი გაუსწრო, როგორებიც არიან Apple და Microsoft. შედარებისთვის, Microsoft-ის ღირებულება ამჟამად 3.75 ტრილიონ დოლარს შეადგენს, ხოლო Apple-ის - 3 ტრილიონ დოლარს ოდნავ აღემატება. Nvidia ამჟამად S&P 500 ინდექსის 7.3%-ს შეადგენს.

    ზრდის პიკს გაზაფხულის კლების მიუხედავად მიაღწია — აპრილში აქციების ფასები დაეცა დონალდ ტრამპის მხრიდან ტარიფების მუქარისა და აშშ-ის მიერ ექსპორტის მკაცრი კონტროლის ფონზე, რამაც Nvidia-ს ჩინეთში თავისი მოწინავე ჩიპების გაყიდვა აუკრძალა. თუმცა, პოტენციური სავაჭრო შეთანხმებების მიმართ ოპტიმიზმმა ბაზრები კვლავ გაათბო.

    Wedbush-ის ანალიტიკოს დენიელ აივსს ეჭვი არ ეპარება, რომ სხვებიც მიბაძავენ Nvidia-ს. მან Nvidia-სა და Microsoft-ს „ხელოვნური ინტელექტის რევოლუციის ვიტრინა“ უწოდა და იწინასწარმეტყველა, რომ Microsoft-ი ამ ზაფხულისთვის 4 ტრილიონ დოლარს მიაღწევს, ზრდა კი მხოლოდ ამის შემდეგ გაიზრდება: „18 თვეში ყურადღება 5 ტრილიონ დოლარზე გადაინაცვლებს“.