Forum Religia,Polityka,Gospodarka Strona Główna
Świat informatyki .

 
Napisz nowy temat   Odpowiedz do tematu    Forum Religia,Polityka,Gospodarka Strona Główna -> Wiedza i Nauka
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Śro 12:01, 06 Kwi 2011    Temat postu: Świat informatyki .

Rewelacyjne odkrycie polskich naukowców

Odkrycie warszawskich naukowców z Instytutu Technologii Materiałów Elektronicznych oraz Wydziału Fizyku Uniwersytetu Warszawskiego może zrewolucjonizować rynek komputerów - informuje "Rzeczpospolita". Dzięki niemu komputery będą kilkaset razy szybsze, a jednocześnie mniejsze i oszczędniejsze.

To za sprawą grafenu, niezwykłego materiału składającego się z pojedynczej warstwy atomów węgla, kilkaset razy bardziej wytrzymałego niż stal i w dodatku pozwalającego się zginać. Przewodzi prąd kilkaset razy szybciej niż miedź i znacznie lepiej niż krzem, na którym do dziś opierają się układy stosowane w elektronice, m.in. w komputerach. Za odkrycie jego właściwości naukowcy Andre Geim i Konstantin Novoselov w ubiegłym roku dostali Nobla z fizyki.

Jednak uzyskane przez nich płatki grafenu o powierzchni kilkudziesięciu mikronów nie nadawały się do komercyjnego wykorzystania - były za małe. Tę barierę pokonali polscy naukowcy. Udało im się opracować sposób przeniesienia produkcji grafenu z laboratorium do fabryki. Wykorzystali do tego dostępne dziś na rynku urządzenia do wytwarzania struktur półprzewodnikowych.

- Nasza metoda pozwoli na wytwarzanie dużych powierzchni grafenu o najwyższej jakości. A to da możliwość upakowania większej liczby urządzeń elektronicznych na małej powierzchni. W efekcie komputery będą mniejsze, oszczędniejsze i kilkaset razy szybsze - powiedział profesor Jacek Baranowski z ITME. Jego zdaniem nowy materiał wyprze krzem, którego era w elektronice dobiega końca.

Polacy wyprzedzili inne grupy naukowców, które na całym świecie pracowały nad metodami przemysłowej produkcji grafenu.

>>>>>

To znowu zcahod zarobi... Polski przemysl komputerowy zniszczyli po 89 wlasnie dlatego ze byl taki grozny dla zachodu... Nawet Klusce nie przepuscili mimo ze on stworzyl od zera swoja firme i nic nie mial wspolnego z dawnym przemslem z PRL... No to sie nie dziwcie ze nic w Polsce nie ma oprocz bezrobocia a ludzie musza emigrowac... Zreszta obecnie to i zachod pada... Ale jak widzimy Polaska jest zrujnowana nie dlatego ze nie ma mozliwosci tylko dlatego ze NIE MA MORALNOŚCI...


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Pią 19:56, 28 Lis 2014    Temat postu:

Nowy Przemysł

Od manufaktury do cyfrowej fabryki

Teleinformatyka odmieni nasz przemysł. I to już niedługo: zaczyna się czwarta rewolucja przemysłowa.

Istota tej rewolucji tkwi najkrócej mówiąc w powszechnym wprzęganiu informatyki w procesy wytwarzania. Jej celem jest stworzenie inteligentnej fabryki, czyli Smart Factory.

Pierwsza rewolucja przemysłowa zaczęła się od wynalezienia silnika parowego i zmechanizowania pracy. Druga przyniosła na początku dwudziestego wieku techniki masowej produkcji. Trzecia wypełniła kilka ostatnich dekad wprowadzaniem do przemysłu elektronicznych systemów i technologii informatycznych automatyzujących procesy produkcyjne. Czwarta napędza rozwój najnowszych technologii informatycznych. Jest tak samo frapująca dla tych, którzy z rozwiązań informatycznych korzystają, jak i dla tych, którzy je tworzą.

- W inteligentnych, niezawodnych i wydajnych fabrykach wytwarzać się będzie produkty na podstawie ich cyfrowych modeli - przewiduje Mariusz Zabielski, prezes Siemens Industry Software. - Proces wytwórczy oparty zostanie na Systemach Cyberfizycznych, które określą optymalną metodę wytworzenia i dostarczenia produktu do klienta. Inteligentne fabryki będą w dużym stopniu posiadały zdolność samoplanowania i samoadaptacji.

- Systemy Cyberfizyczne będą jednym z filarów koncepcji "Industry 4.0" - wtóruje mu Bogumił Kamiński, partner w Infovide-Matrix. - Drugim będzie internet rzeczy.

- Połączenie maszyn i systemów stworzy inteligentną sieć, którą można będzie autonomicznie kontrolować - dodaje Ryszard Krawczyński z Oracle Polska.

Co da się przewidzieć?

Zdaniem Piotra Buniewicza, kierownika produktu w Netii, rewolucja "Industry 4.0" jest ciągle przed nami. Wciąż więc, według niego, nie jesteśmy w stanie jednoznacznie nazwać wyzwania, które postawi ona przed dostawcami rozwiązań teleinformatycznych. To i owo przewidzieć jednak można...

- Jeżeli założymy, że rewolucja technologiczna w przemyśle będzie pochodną rozwoju świata IT, to pewne grupy rozwiązań rzeczywiście możemy wskazać już dzisiaj.

Dynamiczny wzrost liczby urządzeń komunikujących się ze sobą wywoła wzrost ruchu w sieci i wymusi na operatorach telekomunikacyjnych znaczne zwiększenie potencjału zarządzanej przez nich infrastruktury.

- Dzisiejsze punkty dostępowe WiFi oraz mobilne stacje bazowe, spokojnie radzą sobie z dziesiątkami i setkami zarejestrowanych użytkowników. Jednak pw otrzeba obsługiwania tysięcy wymagać już będzie jakościowej zmiany w tym obszarze - uważa Piotr Buniewicz.

Upowszechnienie przenoszenia systemów logicznych urządzeń lokalnych do informatycznej chmury będzie się wiązało z koniecznością nieustannego zwiększania dostępnych mocy obliczeniowych. A ponieważ procesy zachodzące w chmurze będą miały kluczowe znaczenie dla ciągłości funkcjonowania przedsiębiorstw, trzeba będzie zapewnić im bezpieczeństwo.

- Mówimy tu o redundancji łączy pomiędzy przedsiębiorstwem a data center oraz zwielokrotnieniu jego obiektów oraz serwerów, na których wykonywane będą operacje - opisuje całe zjawisko Piotr Buniewicz.

Zakład przemysłowy będzie jednak mógł paść ofiarą ataku hakerskiego, tak jak dziś dzieje się to na przykład ze stronami internetowymi.

- Dlatego niezbędne staną się takie platformy jak anty-DDOS, IPS oraz IDS - przekonuje nasz rozmówca.

- W Orange oferujemy rozwiązanie "bezpieczeństwo jako usługa". Polega ono na tym, że sieć klienta trafia do Security Operations Center - naszego centrum bezpieczeństwa, która zajmuje się monitorowaniem i analizą informacji o ruchu w sieci - informuje Damian Biedulski, dyrektor Segmentu Klientów Kluczowych i Korporacyjnych w Orange. SOC dba w tej chwili o bezpieczeństwo ponad 2 milionów Polaków.

Nie obejdzie się bez najnowszych technologii chmurowych, analitycznych i mobilnych także według Georga Kube, wiceprezesa SAP SE.

- Koncepcja "Industry 4.0" rzeczywiście może być wdrażana na poziomie gromadzenia i przetwarzania danych, aplikacji oraz komunikacji.

Jak będzie to działać?

Czwarta rewolucja przemysłowa wzbogaci internet o nowe funkcje.

- Wymusi na firmach implementowanie technologii internetu rzeczy (IoT) - uważa Tomasz Barzowski, dyrektor handlowy Orange Polska.

IoT, czyli komunikacja pomiędzy urządzeniami, ma na celu zbieranie jak największej liczby danych telemetrycznych ze wszystkich zasobów, maszyn i urządzeń, które są wykorzystywane przez przedsiębiorstwo. Nie zawsze będą to urządzenia typowo przemysłowe.

- Mówimy tu również o smartfonach, tabletach czy flocie samochodów - wylicza Tomasz Barzowski. - Czyli o wszystkim, co ma wpływ na realizację procesów biznesowych.

W ramach IoT szczególnie wyróżnia technologię M2M (Machine to Machine), która także w Polsce rozwija się bardzo dynamicznie. Tempo wzrostu komunikacji M2M w naszym kraju porównuje się do wartości, które osiąga rynek technologii cloud computing (ponad 20 proc. w skali roku).

- Drugi trzon tej rewolucji to właśnie chmura i szereg rozwiązań udostępnianych w modelu "as a service" - wskazuje.

Technologie związane z mobilnością i chmurą obliczeniową wciąż są jednak postrzegane raczej w kontekście stylu życia i pracy, a koncepcje internetu rzeczy traktowane jedynie jako sposób pozyskiwania informacji ze środowiska.

- Dziedzina urządzeń autonomicznych dopiero raczkuje, choć widać już pierwsze próby jej komercjalizowania; tak, jak czyni to choćby iRobot - dowodzi Artur Thielmann, doradca zarządu Atende.

Do powszechnego wdrażania tego typu rozwiązań wciąż jednak daleko.

- Autonomiczne maszyny mają rację bytu w dwóch rodzajach sytuacji - tłumaczy Thielmann.

Pierwsza wiąże się z rozwiązywaniem przez nie specjalistycznych, konkretnych i ograniczonych problemów. Druga - z wykorzystywaniem ich jako komunikujących się ze sobą jednostek, tworzących nową jakość dzięki zdolności porozumiewania się bez udziału człowieka.

Do stworzenia powszechnej infrastruktury autonomicznych, powiązanych ze sobą urządzeń, nadal jednak daleko, a komunikacja tych, które pochodzą od różnych producentów, wymaga uzgodnień odpowiednich protokołów.

- Główny problem polega na stworzeniu odpowiedniej metafory świata fizycznego, sprowadzenia wirtualnej rzeczywistości do poziomu fizycznej rzeczywistości - konkluduje doradca z Atende. - Musimy nauczyć maszyny rozumieć nasz świat pojęć.

Na co można liczyć?

Sektor teleinformatyczny, przygotowując swoją ofertę dla przemysłu, będzie koncentrował się między innymi na zapewnieniu bezpiecznego przesyłania, gromadzenia i analizowania danych pozyskiwanych z urządzeń zlokalizowanych w chmurze.

- Z pewnością ważną rolę odegrają tu takie systemy, jak MDM (Mobile Device Management) czy MAM (Mobile Application Management) - wskazuje Tomasz Barzowski z Orange Polska.
Firmy teleinformatyczne będą zmierzały do takiego zabezpieczenia poszczególnych jednostek, aby po utracie łączności z serwerem centralnym lub nieautoryzowanej zmianie położenia zarządzanego terminala, w ich pamięci nie pozostawały żadne dane, które mogą być niewłaściwie wykorzystane.

- To z kolei wymusza na operatorach GSM ciągłe unowocześnianie sieci komórkowych i zwiększanie szybkości transferu danych - mówi dyrektor Barzowski.

Przedstawiciel Netii już teraz dostrzega działania operatorów telekomunikacyjnych oraz dostawców rozwiązań IT, zmierzające do zaspokojenia potrzeb firm w obliczu wyzwań rewolucji "Industry 4.0". Twierdzi, że wystarczy popatrzeć choćby na lawinowo rosnącą liczbę obiektów data center.

- Powierzchnia przeznaczona dla kolokacji serwerów podwoi się w Polsce w ciągu najbliższych 5 lat - przewiduje Piotr Buniewicz.

Natomiast zwiększająca się wydajność urządzeń pociągnie za sobą poprawę dostępności oraz spadek cen rozwiązań realizowanych w architekturze cloud computing. To z kolei przyśpiesza przenoszenie do chmury kolejnych systemów i aplikacji, a co za tym idzie - zmianę modelu ich oferowania na dużo bardziej elastyczny, odpowiadający potrzebom przedsiębiorców i przedsiębiorstw.

- W najbliższych latach będziemy obserwowali powstawanie wyspecjalizowanych rozwiązań, ograniczonych do poszczególnych dziedzin zastosowań - prognozuje Artur Thielmann.

Istniejące platformy sprzętowe robotyki będą wyposażane w coraz doskonalsze i coraz bardziej autonomiczne systemy oprogramowania, co spowoduje, że te same maszyny będą mogły jeszcze szybciej i w szerszym zakresie niż dotąd, zmieniać swoje funkcje w procesie wytwórczym.

Przykładem, który podaje, jest zastosowanie aplikacji mobilnych i metod przetwarzania danych niestrukturalnych do zbierania dokładniejszych danych źródłowych dotyczących sprzedaży i preferencji klientów. Dzięki temu narzędzia zarządzania cyklem życia produktu (PLM) będą mogły wspierać proces optymalizacji decyzji zarządczych.

Ciekawe tendencje zarysowują się w obszarze rozwiązań z zakresu inteligentnych sieci energetycznych (smart grid). Podstawową ich funkcją jest zbieranie danych ze zdalnie dostępnych liczników.

- Jej oczywistym rozszerzeniem jest możliwość zdalnego sterowania elementami sieci - mówi Artur Thielmann. - Następnym krokiem będzie przeniesienie obu tych możliwości na urządzenia zlokalizowane u odbiorcy prądu poprzez sieci domowe (HAN). Zastosowanie znajdują tu także aplikacje mobilne, które oferują narzędzia umożliwiające interaktywny kontakt dostawców energii z odbiorcami i małymi producentami.

Kogo to dotyczy?

Jednym z sektorów napędzających ewolucję rozwiązań ICT jest energetyka. I dotyczy to nie tylko inteligentnych liczników prądu, ale także mierników ciepła i gazu.

- Wyposażenie urządzeń pomiarowych w karty SIM i wysyłanie danych przez sieć GSM do chmury to źródło wielu korzyści - wskazuje Tomasz Barzowski z Orange Polska.

Daje bowiem możliwość ich późniejszego udostępniania zarówno w systemach rozliczeń on-line, jak i aplikacjach dedykowanych odbiorcom końcowym, co między innymi pozwala im kontrolować wydatki. Istotna jest także możliwość wykorzystywania pozyskanych w ten sposób danych do tworzenia prognoz i analiz makroekonomicznych w skali kraju czy nawet Europy.

Wiele dzieje się także w transporcie i sektorze publicznym.

- Oprócz zbierania danych dotyczących prędkości, położenia czy przebiegu można także, wykorzystując czujniki przeciążenia, informować odpowiednie służby miejskie o różnych zdarzeniach i wysyłać pomoc na miejsca wypadków, zanim zostanie ona wezwana - opisuje Tomasz Barzowski. - Ten sam schemat można zaadaptować w firmach logistycznych, w procesach śledzenia tras i monitoringu pojazdów.

Piotr Buniewicz wskazuje z kolei na przedsiębiorstwa z procesami produkcyjnymi o dużym stopniu skomplikowania, jako te, które najszybciej będą adaptowały rewolucyjną ofertę ICT. Poza energetyką będą to firmy z branży elektromaszynowej i wysokich technologii, ale także przemysł spożywczy.

Szczególnie ciekawie zapowiada się rozwój rozwiązań dla małych i średnich przedsiębiorstw.

- Mam tu na myśli zarówno nowe technologie dostępu bezprzewodowego, jak i chmurę obliczeniową. Dostawcom specjalistycznych rozwiązań, przeznaczonych do stosunkowo wąskich, specyficznych zastosowań, łatwiej będzie docierać do klientów - prognozuje Artur Thielmann, doradca zarządu Atende.

Jarosław Maślanek

...

Chyba raczej trzecia fala .
Pierwsza maszyn .
Druga automatow .
Trzecia informacji .
To nadal epoka informatyki .


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Czw 14:55, 25 Cze 2015    Temat postu:

Naukowcy z Politechniki Wrocławskiej stworzyli nowy superkomputer

Michał Dzierżak
25 czerwca 2015, 12:27
Dziś do użytku został przekazany klaster Bem - superkomputer autorstwa specjalistów z Politechniki Wrocławskiej. Wyróżnikiem nowego sprzętu jest ogromna moc obliczeniowa, którą naukowcy szacują na odpowiadającą kilku tysiącom komputerów domowych.

Nad stworzeniem i uruchomieniem superkomputera pracowała ekipa Wrocławskiego Centrum Sieciowo-Superkomputerowego Politechniki Wrocławskiej. Czym jest superkomputer?

- To sieć połączonych ze sobą jednostek komputerowych, tworzących klaster o bardzo dużej mocy obliczeniowej, porównywalnej z kilkoma tysiącami komputerów osobistych – tłumaczy dr inż. Jacek Oko szefujący WCSS.

Jak nowy klaster prezentuje się w liczbach? Łącznie będzie dysponował ponad 46 terabajtami pamięci operacyjnej, a dane tymczasowe z prędkością 60 gigabjatów na sekundę będzie zapisywał na ponad tysiącu twardych dysków. Przy klastrze pracować będzie 724 serwery, a pobór mocy superkomputera będzie wynosił w przybliżeniu 240 kW, czyli jak szacują naukowcy tyle, ile potrzebuje 60 jednorodzinnych domów.

Warty uwagi jest również system chłodzenia klastra. – Jest on oparty na wodzie, której zadaniem jest chłodzenie powietrza. Trzy agregaty wody lodowej chłodzą powietrze, które komputery za pomocą wentylatorów zasysają i ogrzewają, same tracąc przy tym ciepło – tłumaczy dr inż. Mateusz Tykierko z WCSS.

Komu będzie służył stworzony przez specjalistów z WCSS Politechniki Wrocławskiej klaster? Nieodpłatnie będą mogli z niego korzystać polscy uczeni, ponieważ za jego pomocą będzie można dokonywać analiz skomplikowanych danych i modelowania zjawisk, które trudno byłoby zbadać w laboratoriach. Superkomputer posłuży przede wszystkim w takich dziedzinach nauki jak chemia, astronomia, fizyka ciała stałego, medycyna czy mechanika.

Już w chwili obecnej klaster znajdzie się na liście 500 najszybszych komputerów świata i ma szansę znaleźć się w pierwszej setce. Klaster Bem, bo taką nazwę otrzymał nowy superkomputer, ma ponad 10 razy większą moc obliczeniową niż służąca dotychczas polskim naukowcom Supernova.

Skąd nazwa nowego komputera stworzonego przez WCSS? – Klaster otrzymał swoją nazwę na cześć zmarłego w październiku ubiegłego roku prof. Daniela Józefa Bema, który przez długie lata kierował WCSS. Swoje całe życie poświęcił on nauce i kształceniu kadry, a pośród jego wychowanków znajduje się szerokie grono wybitnych profesorów, inżynierów oraz wynalazców – dodaj dr inż. Oko.

Wrocławskie Centrum Sieciowo-Superkomputerowe funkcjonuje już od 20 lat i jest jednym z najbardziej liczących się tego typu centrów w Polsce. Przez dwie dekady swojego działania, specjaliści z WCSS stworzyli wraz z Bemem cztery superkomputery.

...

Brawa.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Pią 17:00, 27 Lis 2015    Temat postu:

Wrocławianie stworzyli super kask. Wykorzystali technologię rodem z myśliwców
Tomasz Pajączek
Dziennikarz Onetu

Wrocławianie stworzyli super kask - Tomasz Pajączek / Onet

Są informatykami. Nigdy w życiu nie jeździli na motorze. Mimo to zaprojektowali specjalne okulary do kasku motocyklowego, które pozwalają śledzić prędkość bez odrywania wzroku od drogi. Wbudowane w kask urządzenie może służyć także jako nawigacja, a nawet lusterko wsteczne. Parę dni temu Grzegorz i Wojciech, dziś mieszkańcy Wrocławia, zaprezentowali swój wynalazek na targach w Mediolanie. I zrobili furorę.

Jeden kończył Politechnikę Wrocławską, drugi Opolską. W końcu jednak ich drogi się skrzyżowały. Razem wpadli na pomysł, by zrobić coś niebanalnego, innowacyjnego. I choć sami nie jeżdżą na motorze, postanowili udoskonalić kask dla motocyklistów.

– Cały projekt Seemore rozpoczęliśmy pół roku temu. Nasz wybór padł na rozszerzoną rzeczywistość. Musieliśmy znaleźć zastosowanie, gdzie moglibyśmy sprzedać produkt. I tak doszliśmy do wniosku, że kask motocyklowy, to będzie idealne rozwiązanie – mówi w rozmowie z Onetem Grzegorz Palmer.

Grzegorz i Wojciech nie zamierzali jednak tworzyć kasku od A do Z. Zajęli się jedynie stworzeniem komponentów optycznych i elektroniki – coś na wzór okularów albo rzutnika. Dzięki ich modułowi być może już niedługo motocykliści będą mieć wyświetlaną prędkość lub nawigację dosłownie przed oczami. Podobnie jak piloci myśliwców.

– Już w 1995 roku na Uniwersytecie Michigan przeprowadzone badania pokazały, że jesteśmy w stanie zaoszczędzić 1,5 sekundy, jeżeli informacje są wyświetlane na wysokości wzroku w porównaniu do parametrów, które są wyświetlane w sposób tradycyjny – dodaje Palmer.

– Oprócz bieżącej prędkości i nawigacji na wyświetlaczu widać także obraz z lusterka wstecznego. Kamerę będziemy montować na motocyklu. Sygnał do modułu w kasku może być wysyłany przez bluetooth albo WiFi. Nie będzie żadnych kabelków – mówi Onetowi Wojciech Trelak.

Pierwsze testy kasku z wbudowanym rzutnikiem już się odbyły. – Brało w nich udział dziesięciu motocyklistów. Ich wrażenia były bardzo pozytywne. Obawialiśmy się, że być może obraz będzie niewyraźny, nieczytelny albo po prostu będzie przeszkadzać. Okazało się jednak, że nasze obawy były bezpodstawne – przekonuje Palmer.

Na jednym badaniu się jednak nie skończy. Wiadomo, że w ciągu kilku miesięcy mają się odbyć kolejne próby. – Przede wszystkim chcemy, żeby ten kask był bezpieczny. Dlatego bardzo istotna jest dla nas współpraca z producentami kasków, którzy będą w stanie to zbadać – podkreśla Trelak.

Parę dni temu wrocławianie zaprezentowali swój wynalazek na targach motocyklowych w Mediolanie. Ludzie z branży byli pod wrażeniem. To właśnie tam informatycy nawiązali pierwsze kontakty z producentami.

Według Forbesa w 2020 roku cały rynek wyświetlaczy na szybach będzie wart 8,3 mld dolarów.

...

Znakomicie Smile


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Nie 23:38, 06 Mar 2016    Temat postu:

Zmarł wynalazca e-maila. Ray Tomlinson miał 74 lata
Nie żyje Ray Tomlinson. Wynalazca e-maila miał 74 lata - Onet

W USA zmarł Ray Tomlinson - informatyk uważany za wynalazcę systemu e-mail. Amerykański prekursor internetu miał 74 lata. Według doniesień mediów, Tomlinson zmarł na atak serca.

Na pomysł wysłania elektronicznej wiadomości z jednej sieci komputerowej do drugiej wpadł w roku 1971. Ray Tomlinson wprowadził też niezbędny w e-mailach symbol @ (at) znany w Polsce jako "małpa".

Pytany, co było w jego pierwszym mailu, wysłanym w Bostonie, mówił, że nie pamięta i że nie było to nic nadzwyczajnego. Tomlinson pracował też nad rozwojem internetu.

Cztery lata temu w uznaniu wybitnych zasług jego nazwisko umieszczono w Internetowej Galerii Sław.

...

Niestety ta ,,małpa" irytuje. Kto to wymyslil? Polecamy dusze Bogu...
ttt


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Śro 18:58, 25 Sty 2017    Temat postu:

RMF 24
Fakty
Nauka
Zachowania on-line mamy w genach
Zachowania on-line mamy w genach

Poniedziałek, 23 stycznia (20:00)

Przesiadujesz w internecie, nie możesz oderwać się od portali społecznościowych, perspektywa znalezienia sie w miejscu bez zasiegu napawa cie lękiem? To w znacznej mierze wina... twoich rodziców. Wyniki badań naukowych pokazują, że poziom naszej aktywności w sieci, czy skłonność do gry na urządzeniach mobilnych, mają swoje genetyczne uwarunkowania. Jak przekonują na łamach czasopisma "PLOS ONE" naukowcy z King's College London, w tej dziedzinie życia wpływ naszych rodziców jest nawet większy, niż do tej pory myśleliśmy. I manifestuje się w różnym wieku na co najmniej dwa różne sposoby.
zdjęcie ilustracyjne
/Dinendra Haria / Alamy Stock Photo /PAP

Internet i wszelkie związane z nim atrakcje to sprawa wciąż bardzo świeża, która pojawiła się mniej więcej 20 lat temu, a na masową skalę upowszechniła pod koniec pierwszej dekady XXI wieku. W tej chwili sieć staje się już niezbędnym elementem naszej codzienności, bez którego zwłaszcza młodszemu pokoleniu trudno wyobrazić sobie życie. Mimo to, wciąż bardzo różnimy się pod względem aktywności w internecie i nie sposób w pełni wytłumaczyć tego różnicami w dostępie do sieci, komputerów, czy urządzeń mobilnych. Badacze z Londynu postanowili sprawdzić, na ile istotne są w tym geny. I przekonali się, że znaczną część tych upodobań dziedziczymy po rodzicach, nawet jeśli oni sami z internetem nie mają lub nie mieli wiele wspólnego.

Autorzy pracy prześledzili aktywność w sieci ponad 8500 16-letnich bliźniąt, biorących udział w programie Twins Early Development Study (TEDS). Przez porównanie zachowania i upodobań bliźniąt jednojajowych, mających 100 procent identycznych genów i dwujajowych, dzielących połowę genów, badano na ile ich aktywność sieci wynika z uwarunkowań genetycznych, a na ile z wpływu środowiska. Analizowano przy tym takie aktywności, jak: gry mobilne dla zabawy i edukacji, aktywność na portalach społecznościowych, czy użycie komunikatorów internetowych.

Dziedziczność upodobań w największym stopniu (39 proc.) dotyczyła gier on line, w 37 proc. ogólnej rozrywki, w 34 proc. edukacji i w 24 proc. zachowań społecznościowych. To część naszej"sieciowej" osobowości, którą dziedziczymy po rodzicach, nawet jeśli oni sami nie byli szczególnie w internecie aktywni. Część dominująca z oczywistych względów u osób dorosłych. Na tym jednak wpływ naszych rodziców się nie kończy. W przypadku 16-latków rodzice w dominującym stopniu decydują też o wpływie otoczenia. To od nich zależy, kiedy dziecko dostanie urządzenia mobilne, czy komputer, to oni decydują, czy ma do sieci nieograniczony dostęp, czy w konkretnych godzinach, to oni wreszcie pilnują, by internet nie utrudniał nauki, nie odbierał godzin snu.

Zdaniem naukowców z King's College London, zauważony w wynikach badań wpływ czynnika genetycznego oznacza, że nie jesteśmy tylko pasywnymi odbiorcami mobilnych mediów elektronicznych, bezmyślnymi ich konsumentami, ale kształtujemy naszą aktywność zgodnie z cechami naszej osobowości, przekazanymi nam przez rodziców w genach. Badania pokazały też, że rodzice - poddając kontroli dostęp do mediów w dziecięcym wieku - mogą ten swój genetyczny wpływ na nie nieco zmodyfikować. I w tym przypadku życie wirtualne przypomina to w realu.
Grzegorz Jasiński

...

Do wszystkiego sa ludzie, ktorzy maja predyspozycje.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Wto 19:22, 14 Mar 2017    Temat postu:

RMF 24
Fakty
Nauka
Patrz mi na usta
Patrz mi na usta

1 godz. 15 minut temu

Naukowcy z Hong Kong Baptist University proponują nowy system bezpieczeństwa, zwiększający wiarygodność wypowiadanych głosowo haseł dostępu. Opracowana przez nich aparatura nie tylko rozpoznaje wypowiadane hasło, ale identyfikuje także unikatowy ruch ust osoby, która je wypowiada. W rezultacie nawet wykradzenie hasła nie daje możliwości złamania systemu zabezpieczeń, ponieważ nikt nie jest w stanie podrobić ruchu ust innej osoby.
Prof. Cheung Yiu-ming demonstruje technologię "lip motion password"
/Hong Kong Baptist University /materiały prasowe

Coraz powszechniej stosowane zabezpieczenia biometryczne, choćby odciski palców, mają jedną poważną wadę. Po wykradzeniu danych, ich właściciel nie ma możliwości zmiany tych danych, co powoduje, że musi zrezygnować z ich używania. Dlatego właśnie badacze z Hong Kongu uznali za potrzebne wzmocnienie innego typu metod autoryzacji, które przy tym pozostałyby nadal możliwe do zmiany.

Grupa pod kierunkiem prof. Cheung Yiu-minga opracowała technologię "lip motion password", która równocześnie weryfikuje wypowiadane hasło i - na podstawie ruchu ust - wypowiadającą je osobę. Hasło i towarzyszący mu ruch ust może być przy tym zmieniany na normalnych zasadach. Technologia, którą opatentowano już w USA, prawdopodobnie w pierwszej kolejności trafi do banków, jako narzędzie autoryzacji transakcji finansowych.

Naukowcy z Department of Computer Science HKBU podkreślają, że metoda ma kilka zalet. Po pierwsze, jest podwójnie odporna na fałszerstwo, ponieważ aparatura rozpozna i odrzuci zarówno poprawne hasło wypowiedziane przez niewłaściwą osobę, jak i niewłaściwe hasło wypowiedziane przez uprawnioną osobę. Po drugie, metoda rozpoznawania samego ruchu ust jest odporna na szum, może być stosowana z większej odległości, także przez osoby nieme lub posługujące się innym językiem.

Prof. Cheung zapewnia, że prace nad systemem wciąż trwają. Gromadzenie kolejnych zapisów ruchu ust umożliwia programowi doskonalenie kryteriów oceny. Stopniowo optymalizowany jest także poziom dokładności ruchu, niezbędny, by aparatura mogła ocenić, że odpowiada wzorcowemu. Nie ma również przeszkód, by ten system zastosować w połączeniu z innymi, choćby biometrycznymi, do dalszego zwiększenia poziomu bezpieczeństwa.

Wygląda na to, że czas, kiedy do bankomatu będziemy mówić "patrz mi na usta" jest już coraz bliższy.

(ph)
Grzegorz Jasiński

...

Niestety skutki zlodziejstwa. Ile PKB jest marnowane bo ludzie czynia zlo! Jakie bogactwo by bylo gdyby to poszlo na produktywne cele. Ochrona jest oczywiscie jest dobrem i jest potrzebna ale nie tworzy bezposrednio dobr.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Czw 20:28, 30 Mar 2017    Temat postu:

Wszyscy na świecie będą mogli mieć to samo hasło? Nowy wynalazek!
7 godzin temu Ciekawostki


VoicePIN to polski startup z branży zabezpieczeń biometrycznych. Ich pomysł może całkowicie zrewolucjonizować pojęcie „hasła” do urządzeń czy aplikacji. Decydująca nie miałaby być bowiem jego treść, a ton głosu którym je wypowiadamy.



Głosowy sposób podawania hasła ma sprawić, że podawanie hasła będzie szybsze i praktyczniejsze.



– Załóżmy, że dzwonię do call center. Tracę minutę, aż konsultant zada mi pytania pomocnicze, by mnie zweryfikować. Nazwisko panieńskie matki, data ostatniej faktury, hasło. W przypadku VoicePIN – gdy dzwonię do call center system słucha mojego głosu, wyciąga z niego unikalne biometryczne parametry i porównuje z próbką zapisaną w bazie. Następnie przedstawia konsultantowi odpowiedź, czy człowiek, który dzwoni, jest tym, za kogo się podaje – mówi Łukasz Dyląg, CEO VoicePIN.



Nowa technologia to jednak nie tylko wygoda. Dzięki VoicePIN hasła stałyby się dużo bezpieczniejsze. Sam fakt poznania hasła innej osoby nie wystarczałby bowiem do wejścia na jej konto.



– Chcę zalogować się do niej, ale mam długie hasło i nie chce mi się go wpisywać, albo go zapomniałem. Wystarczy je wypowiedzieć do mikrofonu, a system – analogicznie jak w powyższym przypadku – porówna je z próbką w bazie. W zasadzie wszyscy użytkownicy mają identyczne hasło, ale każdy ma swoje unikalne parametry głosu. VoicePIN może też mieć zastosowanie na stronach internetowych czy usługach z dziedziny Internetu Rzeczy. (…) praktyce prawdopodobieństwo włamania do systemu to mniej niż promil, poziom akceptowalny przez banki, a skuteczność wynosi wtedy około 95 proc. Czyli prawdopodobieństwo, że ktoś włamie się na konto, wynosi jeden na tysiąc, a zalogujesz się bezbłędnie 95 razy na 100. Oczywiście system można konfigurować, podkręcić bezpieczeństwo kosztem użyteczności po stronie użytkownika lub na odwrót – dodaje.




Następne newsy »
Dodał(a): fastcake

...

Wszystko idzie w kirunku skanowania konkretnej osoby zamiast hasel.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Śro 19:25, 07 Cze 2017    Temat postu:

RMF 24
Fakty
Polska
Zakładasz gogle i jesteś kapitanem statku. Nowa forma nauki w Akademii Morskiej
Zakładasz gogle i jesteś kapitanem statku. Nowa forma nauki w Akademii Morskiej

Dzisiaj, 7 czerwca (16:39)

​Wystarczy założyć gogle, aby zostać kapitanem statku. Najnowocześniejszą na świecie pracownię wykorzystującą technologie wirtualnej i rozszerzonej rzeczywistości ma szczecińska Akademia Morska. Dzięki oprogramowaniu przyszli marynarze już od pierwszego roku studiów będą uczyć się sterowania statkiem.
Zakładasz gogle i jesteś kapitanem statku. Nowa forma nauki w Akademii Morskiej (film: Aneta Łuczkowska)
/RMF FM

Po założeniu gogli przenosimy się na pokład statku. To pierwsza z gotowych symulacji. Dzięki kontrolerom można chwycić za koło sterowe, wystarczy przejść kilka kroków, żeby znaleźć przekładnię, dzięki której można sterować prędkością statku.

Wygląda to tak, jak na prawdziwym mostku. Można się rozejrzeć, można też wyjść na pokład. I to jest to, co wyróżnia symulator wirtualny od realnej pracowni. Ten symulator pozwala nam wejść do siłowni okrętowej. W pomieszczeniu obok mamy użytkownika z tymi samymi okularami, znajdującego się na tym samym wirtualnym statku, który właśnie obsługuje siłownię okrętową. Coś takiego jest możliwe z symulatorami fizycznymi, natomiast jest to bardzo skomplikowane i kosztowne. W systemie wirtualnej rzeczywistości jesteśmy w stanie zrobić wszystko - tłumaczy Bartosz Muszyński z Akademii Morskiej.

W tworzenie kolejnych wirtualnych sytuacji, z wykorzystaniem oprogramowania używanego do projektowania gier komputerowych, angażowani są też studenci. Przygotowują modele budynków czy statków, które potem trafiają na wirtualne mapy. Możliwości są nieograniczone. Technologia ma pozwolić studentom Akademii już od pierwszego roku studiów wdrażać się w obsługę statku. Nie muszą czekać na praktyki na uczelnianym Nawigatorze XXI.
Wirtualna rzeczywistość w szczecińskiej Akademii Morskiej
/Akademia Morska w Szczecinie /
Wirtualna rzeczywistość w szczecińskiej Akademii Morskiej
/Akademia Morska w Szczecinie /

Uczelnia chce podczas zajęć wykorzystywać smartfony studentów i proste gogle, które dostawać ma każdy z uczestników zajęć. Dzięki temu procedury na statku czy w porcie będą mogli oglądać tak, jakby sami brali w nich udział. To zupełnie inne wrażenie, niż obejrzenie filmu na ekranie komputera - dodaje Bartosz Muszyński. Projektanci robią bowiem wszystko, żeby możliwie jak najwierniej odwzorować zachowanie statku. Prawie. Musieliśmy zmniejszyć falowanie. Wielu użytkownikom gogli robiło się po prostu niedobrze i wychodzili z pracowni z bólem głowy - mówi Bartosz Muszyński.

Akademia Morska ma też sprzęt wykorzystujący technologią AR, czyli rozszerzonej rzeczywistości. Dzięki goglom sprzężonym z kamerą użytkownik przed oczami widziałby dodatkowe informacje. Na przykład, patrząc na płynący obok statek, jeśli nawigator chce sprawdzić w jakiej jest odległości i czy da radę go ominąć, musi wykonać szereg czynności. Przy użyciu gogli, informacje wyświetlałyby mu się przed oczami.


(łł)
Aneta Łuczkowska

...

Juz od dawna sa symulatory.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Pon 9:23, 26 Cze 2017    Temat postu:

Sztuczna inteligencja pomoże znaleźć oszustów

Dzisiaj, 26 czerwca (07:20)

Japoński fiskus planuje wykorzystywać sztuczną inteligencję do automatycznego wyszukiwania osób mogących popełniać przestępstwa podatkowe, a także do odpowiadania na pytania podatników - informuje dziennik "Japan Times".
zdjęcie ilustracyjne
/Paweł Pawłowski /RMF FM


Wsparcie informatycznych systemów japońskiej agencji podatkowej jest według niej niezbędne, ponieważ liczba firm wzrosła o 30 proc. wobec poziomu z 1989 r., natomiast zatrudnienie w urzędzie zmalało.

Algorytmy informowałyby podatników, jeżeli kwoty deklarowane w zeznaniach podatkowych wskazywałyby na potencjalne nieprawidłowości. System byłby w stanie odpowiadać na pytania związane ze sprawami podatkowymi za pośrednictwem mediów społecznościowych i poczty elektronicznej.

APA

...

Nie moze byc tak ze tylko przestepcy uzywaja technologii...


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Wto 7:48, 26 Wrz 2017    Temat postu:

RMF 24
Fakty
Nauka
Do komputera tylko z... sercem
Do komputera tylko z... sercem

1 godz. 2 minuty temu

Kody dostępu, czytniki odcisków palców, czy skany siatkówki oka - wszystkie te metody zabezpieczania dostępu do naszych komputerów mogą się wkrótce okazać przestarzałe. Wszystko za sprawą pomysłu realizowanego przez grupę naukowców pod kierunkiem badaczy z University at Buffalo. Opracowali oni technologię, która umożliwia komputerom rozpoznanie, kto przed nimi siedzi po... rozmiarach serca. Autorzy pomysłu zapowiadają, że system - wykorzystujący małej mocy radar dopplerowski - jest skuteczny i bezpieczny. O szczegółach zamierzają opowiedzieć podczas październikowej konferencji MobiCom w Salt Lake City w stanie Utah.
Serce otworzy ci dostęp do komputera
/Bob Wilder/University at Buffalo /Materiały prasowe

Radar dopplerowski emituje promieniowanie elektromagnetyczne o określonej częstotliwości i na podstawie analizy promieniowania odbitego, w tym jego częstotliwości, umożliwia rozpoznaje nie tylko kształtu, ale i ruchu badanych obiektów. Do identyfikacji system używa zarówno rozmiarów i geometrii serca, jak i charakterystycznego sposobu, w jaki się porusza. Wszystkie te cechy są unikatowe dla danego użytkownika i w normalnych warunkach się nie zmieniają. Do istotnej zmiany kształtu serca może dojść tylko w przypadku poważnej choroby.

System potrzebuje około 8 sekund do wykonania pierwszego skanu serca i potem już na bieżąco może kontrolować, czy przed komputerem siedzi uprawniony użytkownik. To właśnie - zdaniem autorów pomysłu - podstawowa zaleta nowego systemu w porównaniu z poprzednimi. Użytkownik w ogóle nie musi się logować, ani wylogowywać. Komputer rozpoznaje go po włączeniu i nie ma ryzyka, że ktoś dostanie się do komputera w czasie naszej chwilowej nieobecności. Rozpoznanie jest tak łatwe, że w przyszłości może być stosowane nawet w przypadku smartfonów.

Urządzenie jest przy tym całkowicie bezpieczne. Natężenie sygnału radaru jest mniejsze, niż w przypadku Wi-Fi - podkreśla pierwszy autor pracy, prof. Wenyao Xu ze School of Engineering and Applied Sciences przy Uniwersytecie w Buffalo. Żyjemy w otoczeniu, w którym Wi-Fi jest wszechobecne, nasza aparatura jest równie bezpieczna. Moc sygnału to około 5 miliwatów, mniej niż procent mocy promieniowania smartfona - dodaje.

Systemy biometryczne wykorzystujące serce były już stosowane, opierały się jednak na analizie sygnału EKG i wymagały podłączenia odpowiednich elektrod. Nowy pomysł po raz pierwszy pozwala działać bezdotykowo i wykorzystywać nie tylko aktywność elektryczną, ale i geometrię serca. Prof. Xu zapowiada teraz miniaturyzację systemu i proponuje umieszczanie czujnika na przykład w rogu klawiatury.
Grzegorz Jasiński

...

Bardzo ciekawe!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Śro 14:31, 07 Mar 2018    Temat postu:

SOS dla kręgosłupa programisty

25 lutego 2017 Jarosław RyczkowskiZdrowie
Osiem godzin spędzone każdego dnia przy biurku. Głowa pochylona nad dokumentami lub wyciągnięta w kierunku ekranu tak, aby niczego nie przeoczyć. Dłoń zaciśnięta na myszce, by za daleko nie uciekła. Prawa ręka pracująca w niesamowitym kilkunastocentymetrowym zakresie ruchu – od myszki do klawiatury. Zakres ruchu lewej zdumiewa jeszcze bardziej – od jednego klawisza do drugiego. Barki często uniesione, a to z powodu terminów, a to z powodu stresu lub negatywnych emocji? Cały kręgosłup zastygnięty w jednej pozycji: przekrzywiony lub skręcony, bo Ty jesteś w kolejne zadanie tak bardzo “wkręcony”? Niektóre mięśnie ciągle napięte, inne z kolei coraz bardziej zwiotczałe. Brzmi znajomo, prawda?

To tylko kwestia czasu, by objawy długotrwałego siedzenia przy biurku dały o sobie znać. Ból pleców, zesztywniały i obolały kark, tępy ból głowy, łokcia, lędźwi, mrowienie palców, osłabione mięśnie, zaokrąglone plecy, zmniejszony zakres ruchu. A w konsekwencji tego zwyrodnienia, dyskopatia, zespół cieśni nadgarstka… Nie wykonując nic oprócz swojej pracy masz tylko 20 proc. szans, że nie dotknie to również Ciebie 🙁

Ktoś dawno już wpadł na to, że lepiej zapobiegać niż leczyć, a kto nie ma czasu na ruch, będzie go musiał mieć na chorowanie. Pomyśl więc o tym, aby już w pracy zrobić coś dla siebie, swojego ciała i samopoczucia. Pamiętaj, by nie “zawieszać się” w jednej, niefizjologicznej pozycji podczas wykonywania jakiegoś zadania. Nasza powięź bardzo tego nie lubi – rozciągnięta tylko przez 15 minut odwadnia się, a z powodu znajdujących się w niej dużej ilości zakończeń nerwowych, zaczyna dawać o sobie znać . Rób to, co zabraniali nam kiedyś nauczyciele – wierć się ciągle na fotelu, na zdrowie!

Pod ręką miej również ten zestaw kilku prostych ćwiczeń rozciągających, które wykonuj raz lub kilka razy dziennie przez co najmniej 30 sekund :

Skręć się dolną połową ciała razem z fotelem maksymalnie w bok, pozostając tułowiem na wprost i głową w przeciwną stronę. Pozycja ta świetnie rozciągnie wszystko wokół kręgosłupa i poczujesz ulgę w lędźwiach.

Opuść głowę w bok, jednocześnie ściągając przeciwny bark jak najniżej. Poczuj jak rozciąga się bok szyi. Ćwiczenie to możesz modyfikować, np. po opuszczeniu głowy w bok, ściągaj ją do przodu. Rozciągniesz wtedy i odciążysz dodatkowo kark. Jeśli potrzebujesz większego rozciągnięcia, chwyć przeciwną ręką za siedzisko krzesła i odchyl się tułowiem w drugą stronę.

Oprzyj grzbiet jednej ręki na siedzisku fotela i odchyl się maksymalnie w tył pozostawiając wyprostowaną rękę. Poczuj rozciąganie mięśni przedramienia.

Usiądź na skraju siedziska, chwyć oparcie po bokach, wyprostuj ręce i plecy wypychając klatkę piersiową maksymalnie do przodu. Odciążysz przez to mięśnie pleców i rozciągniesz mięśnie piersiowe.

Sięgaj naprzemiennie rękoma jak najwyżej w stronę sufitu rozciągając przy tym cały tułów.

...

Trzeba tego dopilnowac!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Czw 16:42, 08 Mar 2018    Temat postu:

Australijczycy dokonali znaczącego przełomu w informatyce kwantowej
9 godz. temu | Technologia
UNSW
Zespół australijskich naukowców pracujący pod kierunkiem specjalistów z Uniwersytetu Nowej Południowej Walii dokonał przełomu na polu informatyki kwantowej. Australijczycy tak precyzyjnie określili pozycję atomów stanowiących kwantowe bity, że jako pierwsi wykazali, iż dwa kubity wchodzą w interakcje. Grupa, na której czele stoi profesor Michelle Simmons, jest jedynym zespołem naukowym na świecie zdolnym do określenia dokładnej pozycji kubitów w ciele stałym.
Simmons i jej koledzy stworzyli atomowe kubity dzięki niezwykle precyzyjnemu umieszczeniu atomów fosforu na krzemowym układzie. Informacja jest przechowywana w spinie elektronu każdego z atomów. Podczas swoich najnowszych badań naukowcy doprowadzili do kontrolowanej interakcji pomiędzy takimi kubitami. To nie jedyne osiągnięcia grupy Simmons. Niedawno ona i jej koledzy stworzyli kwantowy obwód scalony o najmniejszym poziomie szumów oraz stworzyli najdłużej żyjący kubit w urządzeniu nanoelektrycznym. Przetrwał on aż 30 sekund. Razem osiągnięcia te stanowią niezwykle obiecującą perspektywę na drodze ku stworzeniu systemu składającego się z wielu kubitów, mówi profesor Simmons.
Warto tutaj wspomnieć, że w styczniu profesor Simmons odebrała nagrodę Australijczyka Roku 2018, przyznaną jej za pionierskie prace nad komputerami kwantowymi. Uczona mówi, że jej zespół inspiruje się słowami wielkiego fizyka Richarda Feynmana, który mówił: nie rozumiem tego, czego nie potrafię stworzyć.
Stopniowo, atom po atomie, wprowadzamy w życie tę zasadę. Umieszczając atomy fosforu na krzemie stworzyliśmy kubit, wykazaliśmy, ze możemy bezpośrednio zmierzyć jego funkcję falową, która informuje nas o dokładnym położeniu atomu na chipie. Jesteśmy jedynym zespołem naukowym na świecie, który potrafi dokładnie powiedziec, gdzie znajdują się kubity, stwierdza profesor Simmons.
Nasza przewaga nad innymi polega na tym, że możemy umieścić kubit wysokiej jakości w wybranym przez siebie miejscu na chipie, zobaczyć go i zmierzyć, jak się zachowuje. Możemy dodać obok drugi kubit i obserwować interakację ich funkcji falowych. I w końcu możemy tworzyć kopie takich urządzeń, cieszy się uczona.
Na potrzeby najnowszych badań naukowcy wykorzystali dwa kubity – jeden składający się z dwóch atomów fosforu i drugi złożony z jednego atomu fosforu – które umieścili w odległości 16 nanometrów od siebie. Za pomocą elektrod, umieszczonych na chipie tą samą precyzyjną techniką, byliśmy w stanie kontrolować interakcje pomiędzy oboma kubitami, więc spiny ich elektronów zostały skorelowane, mówi współautor badań, doktor Matthew Broome z Uniwersytetu w Kopenhadze. To było fascynujące doświadczenie. Gdy spin jednego elektronu był skierowany w górę, spin drugiego skierowany był w dół.
To ważny przełom technologiczny. Tego typu korelacja spinu to prekursor stanów splątanych, które są konieczne, by komputer kwantowy działał i przeprowadzał złożone obliczenia, mówi Broome.
Teoria mówi, że, aby zaszła korelacja, dwa kubity muszą być umieszczone w odległości 20 nanometrów od siebie. My odkryliśmy, że dochodzi do niej w odległości 16 nanometrów. W świecie kwantowym to olbrzymia różnica. Dla nas, jako eksperymentatorów, równie wspaniałe jest to, że mogliśmy rzucić wyzwanie teorii, dodaje uczony.
Naukowcy z University of New South Wales (UNSW) są w ścisłej światowej czołówce ekspertów pracujących na komputerem kwantowym na krzemie. Mamy nadzieję, że nasze prace dadzą pożądany wynik. To byłoby coś wspaniałego dla Australii, stwierdza Simmons.
Wybór naukowców z Nowej Południowej Walii padł na krzem, gdyż jest to jeden z najbardziej stabilnych i najłatwiejszych w produkcji materiałów, na których można tworzyć kubity. Jest to również materiał dobrze poznany i szeroko stosowany w elektronice. Wcześniejsze badania, podczas których stworzono kwantowy układ scalony z najmniejszymi zakłóceniami elektrycznymi potwierdza, że krzem to wybór optymalny, gdyż pozwala na uniknięcie konieczności stosowania różnych materiałów, w tym dielektryków i metali, które mogą być źródłem i wzmacniaczem szumu. Dzięki naszemu precyzyjnemu podejściu osiągnęliśmy najprawdopodobniej najniższy poziom szumu możliwy do uzyskania w elektronicznym nanourządzeniu na krzemie. Jest on o trzy rzędy wielkości mniejszy od szumu w węglowych nanorurkach, mówi profesor Simmons.
Przywiązywanie wagi do szumu ma swoje uzasadnienie, gdyż powszechnie uważa się, że to szum elektryczny z obwodów kontrolujących kubity będzie najpoważniejszym czynnikiem ograniczającym wydajność komputerów kwantowych.
W ubiegłym roku w Australii powstała pierwsza firma zajmująca się komputerami kwantowymi. Jest ona wspierana finansowo przez rządy regionalne, przemysł i uniwersytety, a jej zadaniem będzie komercjalizowanie wynalazków dokonywanych na w Centre of Excellence for Quantum Computation and Communication Technology na UNSW, na czele którego stoi profesor Simmons. Firma ta, Silicon Quantum Computing Pty Ltd chce do roku 2022 zademonstrować 10-kubitowy komputer kwantowy bazujący na krzemie. Firma otrzymała 26 milionów dolarów od rządu Australii, 25 milionów dolarów od Uniwersytetu Nowej Południowej Walii, 14 milionów od Commonwealth Bank of Australia, 10 milionów od filmy Telstra i 8,7 miliona do rządu Nowej Południowej Walii.
Ocenia się, że kwantowa informatyka znacząco wpłynie na firmy, które tworzą 40% PKB Australii. Wpływ ten może być widoczny w projektowaniu oprogramowania, maszynowym uczeniu się, logistyce, analizie finansowej, modelowaniu giełdy, weryfikacji sprzęti i oprogramowania, modelowaniu klimatu, opracowywaniu i testowaniu nowych leków oraz w wykrywaniu chorób i zapobieganiu im.
Autor: Mariusz BłońskiŹródło: Science Daily

...

To pozwoli na jeszcze lepsze komputery.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Pią 9:24, 04 Maj 2018    Temat postu:

Systemy kłamią na temat użycia procesorów, z roku na rok jest coraz gorzej
Strona główna Aktualności03.05.2018 15:45

eimi
Adam Golański
@eimi
Coraz szybsze te nasze komputery. Jakby się tak zastanowić, to właściwie nie wiadomo, dlaczego tak dużo czasu wciąż zajmują te podstawowe operacje systemowe, skoro w benchmarkach rok do roku widać, że sprzęt jest coraz szybszy. A może w rzeczywistości wcale taki szybki nie jest? Ciekawe stanowisko w tej sprawie zajął starszy architekt Netfliksa, Brandon Gregg. Podważył on wartość jednego z kluczowych parametrów, jakie wykorzystujemy przy ocenie wydajności – użycia procesora (CPU Utilization). Zdaniem tego eksperta nie tylko podawane przez systemy operacyjne użycie procesora mija się z rzeczywistością. W rzeczywistości parametr ten stale się pogarsza.

Użycie procesora jest kluczowym wskaźnikiem wydajności, służącą do śledzenia regresji lub ulepszeń, dającą dobry wgląd w wąskie gardła systemu.

REKLAMA

Załóżmy, że jednordzeniowy procesor jest taktowany 1 GHz. Użycie procesora w tym scenariuszu to procent czasu spędzanego przez procesor na wykonywaniu pracy (w przeciwieństwie do bezczynności). Jeśli ten procesor 1,0 GHz wykonuje 800 milionów cykli pracy na sekundę, to jest on w 80% wykorzystywany w tej sekundzie. Jeśli wskaźnik ten osiągnie 100%, oznacza to, że system nie może już działać szybciej lub przyjąć więcej zadań.

Oczywiście od dawna już nie widzimy jednordzeniowych procesorów taktowanych stalym zegarem. Współczesne układy mają wiele rdzeni o dynamicznie zmieniającej się częstotliwości, do tego dochodzi sprzętowa wielowątkowość i współdzielone między rdzeniami bufory. Zasadniczo jednak uważa się, że procesory o wyższej wydajności (czy to za sprawą wyższej częstotliwości zegara czy większej liczby dostępnych rdzeni) będą dla danego obciążenia roboczego raportowały niższe użycie w różnych narzędziach systemowych, takich jak windowsowy menedżer zadań (taskmgr.exe) czy linuksowy top.



Brandon Gregg w swoim wystąpieniu, które możecie obejrzeć na powyższym wideo, każe nam zwątpić w ten pomiar. Od czasów pojawienia się HyperThreadingu w procesorach Intela, stan zasobów przedstawianych w menedżerze zadań i zasobów faktycznie dostępnych mają ze sobą coraz mniej wspólnego – system operacyjny zachowuje się tak, jakby logiczny rdzeń był fizycznym rdzeniem, w ten sposób mierząc użycie procesora.

image
Sęk w tym, że te rdzenie stały się zbyt szybkie dla komputera. Kiedy widzimy w monitorze systemowym, że użycie procesora jest na 90%, to może się nam to wydawać, że 90% mocy obliczeniowej CPU oddane jest jakimś pożytecznym zajęciom, a 10% idzie na jałowym biegu. Nic z tego, zapewnia Gregg. W rzeczywistości wygląda to znacznie gorzej: w zdecydowanej większości CPU niczego nie robi, większość wątków czeka sobie na dane z podsystemów pamięci, które nie nadążają za tym, co się dzieje.

image
Z roku na rok przepaść między wydajnością procesorów a pamięci rośnie. Projektanci architektur sprzętowych próbują się ratować przed tym wąskim gardłem, budując rozmaite struktury buforowania (L1, L2, L3), ale w tym roku dostali bardzo po głowie. Wydarzyło się coś nieprzewidzianego – łatki na luki Meltdown i Spectre.

REKLAMA

Ekspert Netfliksa w swoim wystąpieniu pokazuje, jaki faktycznie łatki te wpływ mają na serwery o takich samych parametrach, uruchamiające te same obciążenia robocze. Najwyraźniej nieustanne czyszczenie bufora TLB (Translation Lookaside Buffer) powoduje zadławienie CPU – i to jest zgłaszane jako „użycie procesora”. W rzeczywistości nie mamy do czynienia z zadławionym procesorem, który zamiast np. spać i oszczędzać energię, po prostu czeka na możliwość zrobienia czegoś użytecznego.

...

Istotnie nieraz otwieram zwykle okno a procesor 100% i ledwie dyszy. Co on tak zaciekle pracuje i nad czym? Nic nie robie. A niekiedy gra wlaczona gimp i jeszcze noesis i szybko idzie! ( MMIX lithrez taki dobry) Zadnej logiki. To chyba zalezy od optymalizacji. Niektorych gier nie mozna zminimalizowac a blad zawiesza komputer. Innych mozna otworzyc kilka okien. Jedna 15 mb freeware wymagala ponad 1 g pamieci podrecznej!!! Absurd.
[link widoczny dla zalogowanych]
Nie ma tak ze stara gra to koniecznie obecny komputer pociagnie!

Rozwoj pozera sam siebie.

Kiedys ludzie mieli 5 giga pamieci i mogli zmiesci 20 gier po 250 mb.
Teraz maja po 500 giga... Ale gry maja juz 25 giga! Znow tylko 20 gier.
W rzeczywistosci jest gorzej. Aplikacje mobilne w kazdej chwili moga przestac pasowac do waszego androida! Bo juz za stary! Po roku...
Chaos.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Czw 17:11, 17 Maj 2018    Temat postu:

RetroFan
j:
Stare komputery – czego nam brakuje
Opublikowane przez admin w dniu Kwiecień 19, 2018

Wiadomo, moda na retro obejmuje przede wszystkim stare gry, nie zaś komputery jako takie. Prawda jest taka, że większości ludzi te piękne maszyny kompletnie nie interesują, nie mówiąc już o sposobie ich działania. Warto jednak docenić ich najciekawsze cechy. Te, które nie koniecznie dyskwalifikują je w porównaniu ze współczesnymi pecetami i Macami.

Współczesny komputer dla większości z nas jest trochę jak pralka albo winda. To jedno z urządzeń, którym posługujemy się na co dzień nie specjalnie wnikając w to, jak działa. Wkładamy brudne ubrania, wyjmujemy czyste i pachnące. Albo: klikamy ikonkę i nagle uświadamiamy sobie, że choć zaplanowaliśmy pójść do łóżka o północy, to właśnie świta. Nie wnikamy, jak zrobiono tę piękną grafikę 3D albo co też wykombinowali programiści, że te postacie tak trudno było załatwić korzystając z prostych sztuczek. Kiedyś było inaczej. Korzystanie z komputera wymagało wiedzy, ale zmuszało też pewnego minimalnego wysiłku intelektualnego. Czy to dobrze? Moim zdaniem tak, bo sprzyjało poznawaniu – choćby pobieżnemu – sposobu działania komputerów. A to buduje świadomość. Być może, gdyby ludzie wiedzieli, nie dawaliby się tak łatwo nabrać na proste triki hackerów? Nie o tym jednak chciałem napisać lecz o tym czego mi brakuje w dzisiejszych komputerach, co było codziennością w zamierzchłych czasach.

Programy z taśmy

Miałem to szczęście, że w dawnych czasach miałem ZX Spectrum, które potrafiło szybko i w miarę niezawodnie wczytywać programy z dowolnego magnetofonu. O dziwo Commodore i Atari – bez turbo – były niesamowicie irytujące, a wgranie najdłuższych gier mogło trwać nawet ponad 20 minut. Oczywiście chodzenie na palcach podczas wgrywania gry to mit. Zapomnijmy o tym. W przypadku Spectrum nie było problemów. Nawet pognieciona taśma mogła nie być przeszkodą do prawidłowego wczytania gry lub innego programu. A czas? Cóż, w przypadku ZX-a to było najwyżej 5 minut – w sam raz na zaparzenie herbaty. Miałeś Commodore lub Atari bez turbo? Pech. Ale przecież przez kwadrans można np. coś na szybko zjeść i potem spokojnie usiąść do grania. Same plusy.W tym miejscu przypominam, że dzisiejsze superszybkie pecety też potrafią nieźle dać w kość. Niektóre gry potrafią wczytywać się nawet kilka minut, nie mówiąc już o kosmicznych czasach pierwszej instalacji na twardym dysku. Albo inny przypadek: podczas uruchamiania gry nagle okazuje się, że trzeba ściągnąć i zainstalować „ważący” gigabajt update… A słynne błędy podczas wczytywania z taśmy? A ileż to razy pecet zawiesza się, gdy kończy wczytywać grę? A słynne „blue screeny”?

I jeszcze jedno: do dziś pamiętam audycje Radiokomputer Nocą. I to „uwaga, start!”. Dzięki temu moja kolekcja oprogramowania dla ZX Spectrum wzbogaciła się o kilka interesujących pozycji. Tak, tak! Można było nagrywać programy z radia.

Pikselowa grafika

Dziś wszystko jest takie dosłowne. Podane na tacy. Zero wysiłku dla wyobraźni. Tak jest w bajkach dla dzieci, tak jest i w grach komputerowych. Fotorealistyczna grafika zabija specyficzny klimat gier. Komu przeszkadzały potworki zrobione z kilkunastu pikseli w takich grach jak Space Invaders lub Pac Man? Można było spędzać długie godziny wpatrując się w ekran o rozdzielczości kawałka ekranu budżetowego smartwatcha. Kolory też były towarem deficytowym. Obecnie standard to 16,7 mln barw, a przecież my faceci i tak odróżniamy kilka z nich. Może więc 8 kolorów z ZX-a (plus wersje rozjaśnione) to świat i ludzie? Małe Atari miało ich już 256, a Amiga 500 – 4096. To już za dużo.



Uciążliwe były też ograniczenia, które sprawiały, że gry na ZX Spectrum są bardzo charakterystycznie, z kolorami przeskakującymi po jednym kwadraciku. To wyglądało uroczo, a głównym powodem był fakt, że dużo kolorów + wysoka rozdzielczość = dużo pamięci. Tymczasem pamięć była droga, a ówczesne procesory adresowały bezpośrednio tylko 65 535 bajtów (tak, tak – 64 KB!). Za mało, by zużywać np. 16 KB na samą grafikę.

I jeszcze jedno. W zasadzi każdy komputer miał swoją specyfikę, a to z kolei nadawało stworzonym dla niego gier charakterystyczny wygląd. Ten sam tytuł dla Commodore 64, ZX Spectrum i Atari 800 XL wyglądał zupełnie inaczej!

Syntetyczny dźwięk

Jak chcę słuchać CD, to włączam kompakt, rozsiadam się w fotelu i słucham ulubionych kawałków. Dlaczego niby mam chcieć podczas gry ponownie ich słuchać? Albo po co niby przez 6 godzin katować się tą samą składanką wpisanych na stałe utworów? Nonsens. Stare komputery miały klimat. Grały „komputerowo”, a nie jak z CD. Nawet ze zwykłego ZX Spectrum z jednym kanałem dawało się wykrzesać cuda. Poszukajcie gier z serii Dizzy albo takich tytułów jak Hades Nebula, Ping-Pong, czy Uridium. Pal szczęść z grywalnością, ale jak oni zrobili taką muzykę dysponując takimi możliwościami!



Nowocześniejsze Atari 800 XL i Commodore 64 były klasą samą dla siebie, choć ja uważam, że Commodore był o wiele doskonalszy. Zresztą, z C64 korzystał nawet zespół Kombi. Oczywiście, jak w przypadku grafiki, tak i dźwięku 8-bitowców (a później i 16-bitowców) nie dało się pomylić z niczym innym. Łatwo było rozpoznać, jaki to komputer. Nawet AY w ZX Spectrum 128, w Amstradach i w Atari ST brzmiał nieco inaczej. Mało tego, nawet Amiga ze swoimi przetwornikami C/A brzmiała dość charakterystycznie. A dziś? Maszyna potrafi zagrać wszystko. Na szczęście muzyka komputerowa przetrwała – jako tzw. „chip music”. I stale powstają nowe utwory.

Wszyscy programowali

Nie wszyscy muszą być programistami. To fakt. Tak jak nie każdy musi się znać na konstrukcji mostów, astrofizyce i gotowaniu. Ale warto cokolwiek wiedzieć o tym, jak działa otaczający nas świat. I mieć świadomość, że w blaszanym pudle nie siedzą krasnoludki, nie ma tam też cybernetycznego mózgu w dosłownym tego słowa znaczeniu. Ani organicznego. Jest za to skomplikowana maszyna licząca, która precyzyjnie realizuje nasze polecenia. Stare komputery pokazywały to jasno i przejrzyście. Dzięki nim każdy programował w BASIC-u.

10 FOR A=1 TO 10
20 PRINT ”RETROFAN.PL”
30 NEXT A

Kto wie, co się zdarzy? No dobra, pewnie wielu z czytających, ale większość ludzi nie ma o tym bladego pojęcia. I nie wie, że właśnie tak pisze się gry, programy użytkowe, nawet przeglądarkę internetową. I że nic na komputerze nie dzieje się samo. Jeśli ruszasz strzałką po ekranie, to procesor w tym czasie wykonuje miliony obliczeń, żeby ten ruch był płynny, żeby nie niszczył tła i żeby sprawdzać, czy strzałka nie weszła w jakiejś miejsce, które wymaga reakcji. Rzecz jasna w dzisiejszych czasach nikt już nie programuje w BASIC-u.



A pamiętacie jeszcze jedno? Listing programów w Bajtku, Komputerze, IKS-ie, Mikroklanie i w wielu, wielu innych publikacjach? Cudo! Można było pracowicie wklepać program i potem spędzić długie godziny na jego testowaniu i modyfikowaniu. To niesamowita edukacja. W konsekwencji, to trochę kuriozum, ludzie z mojego pokolenia wiedzą więcej o komputerach, niż dzisiejsza młodzież. Swoją drogą, teraz wymyślamy nie wiadomo jakie cuda, by nasze dzieci nauczyć programowania. Przecież wystarczy dać im 8-bitowy komputer z lat 80. Na początek C64, potem może nawet Amstrada (miał lepszy BASIC)?

Wielka różnorodność

Jak wygląda komputer? To desktop (w zasadzie to miniwieża) lub laptop. Gdybyśmy zadali to pytanie 30-35 lat temu, odpowiedź byłaby zupełnie inna. W zasadzie, to nie byłoby jej w ogóle, bo każdy komputer wyglądał inaczej. Obudowy miały różną wielkość, odmienne kolory, wymyślne kształty. Sam Commodore 64 występował jako „mydelniczka” lub jako „pianinko”. Małe Atari mogło być czarno-białe lub beżowe (czy jak mu tam), a przepiękny Amstrad CPC 464 był wielokolorowy. Cudo! Dziś komputery są strasznie monotonne, a te dla graczy wyglądają jak auto tuningowane w garażu za pomocą części kupionych na giełdzie. W zasadzie to podobny los spotkał dziś motoryzację. Popatrzcie na samochody z lat 80. i dzisiejsze…



Oczywiście różnorodność oznaczała też liczne porażki. O ile Commodore 64, ZX Spectrum, czy Atari 800 XL były przebojami rynkowymi, to istniało też wiele komputerów, które ich właścicielom przysporzyły tylko kłopotów, a producentów często doprowadziło do bankructwa. Wspomnijmy tu Sinclaira QL, Commodore Plus/4, czy bezsensowne Amstrady CPC 464 Plus i CPC 6128 Plus.

Szanowaliśmy pamięć

Dziś sprawa jest prosta. Jeśli trzeba rozbudować grę lub program użytkowy to po prostu zmienia się jego wymagania: zalecany jest szybszy procesor i jeszcze więcej RAM-u. Kiedyś pamięć i moc obliczeniową programiści szanowali. Chcieliśmy mieć coś bardziej wydajnego lub funkcjonalnego? Trzeba było optymalizować kod, zmniejszając jego objętość tam, gdzie to możliwe. Przyspieszając jego działanie tam, gdzie wpadliśmy na dobry pomysł. Dziś zostawia się stare procedury, dodaje kolejne linijki kodu, nie usuwając starych, które już nie są potrzebne, ale zabierają i miejsce, i czas (procesora).Aż trudno uwierzyć, że np. w przypadku ZX Spectrum początkowo niemal wszystkie gry wydawane były z myślą o wersji 16 KB i musiały się zmieścić w tej właśnie ilości RAM-u. Dokonywano cudów optymalizacji. W ZX-e pamięć ekranu zajmowała 4 KB, a do dyspozycji programisty w sumie było teoretycznie 48 KB, ale część i tak była zajęta na rejestry systemowe. Trzeba było się naprawdę sporo napracować, by wszystko działało jak trzeba. A 64 KB w Commodore 64? To teoria. RAM tej maszyny był poszatkowany przez wklejone bloki ROM-u oraz rejestry systemowe. Pamiętacie jeszcze, że już w 16-bitowej erze, sam Bill Gates powiedział, że 640 KB to ilość pamięci, jaka na pewno zadowoli każdego. To przy okazji premiery MS-DOS-u, który adresował tyle właśnie RAM-u. Teraz komórka ma więcej RAM-u, smartwatch też.

Scena budowała społeczności

Niby demo-scena nadal istnieje, i to nawet dla 8-bitowców, ale to nędzne resztki tego, co było kiedyś. Sam byłem programistą, swapperem (czyli korespondowałem z innymi i wymieniałem się na programy) i sysopem (czyli obsługiwałem BBS – ktoś wie co to?) w swojej grupie na C64. To były czasy! Kontakty z całego świata, wielkie zjazdy takich samych geeków jak my w różnych miejscach w Europie – czasem na imprezach zjawiały się tysiące ludzi! Nawet na organizowanym w Warszawie party Intel Outside były tłumy, i to podczas każdej z edycji. Dziś to imprezy niszowe. Dziś jest Facebook, Instagram, Twitter i inne serwisy społecznościowe. Kiedyś liczyły się jednak kontakty bezpośrednie i moim zdaniem to był wielki atut tamtych czasów.

...

Pionierskie czasy zawsze sa piekne. Istotnie aby sie nauczyc informatyki od zera najlepiej przeleciec historie programowania.
Oczywiscie nie bede mowil ze rozdzielczosc gier 320 na 200 to szczescie absolutne. 640 czy 800 duzo daje ale juz wzrost z 800 na wiecej zaczyna pozerac pamiec z miernym zyskiem.
Do mnie tez nie przemiawia hiperrealizm. Te gry sa jakieś takie zwyczajne. Brak niezwykłosci. Tymczasem pikselowki maja zagadkowy urok. Sa surrealistyczne...
W starych grach glownie boli brak dopracowania rozgrywki a nie grafiki. Np. Might and Magic I brakuje systemu rozwoju umiejetnosci i bardziej wygodnego systemu klawiszy. A nie super grafiki.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Pon 21:50, 13 Sie 2018    Temat postu:

Naukowcy nauczyli algorytm, jak identyfikować twórców oprogramowania po sposobie, w jakim komponują kod. To odkrycie może pomóc w identyfikacji cyberprzestępców, ale może zagrozić także anonimowości w sieci.

Koniec z anonimowością Koniec z anonimowością programistów. SI rozpozna ich styl -

...

Kazdy kij ma dwa konce.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Czw 20:07, 18 Paź 2018    Temat postu:

„Familiada” zalicza potężną wpadkę w temacie języków programowania
Strona główna Aktualności17.10.2018 18:05
image Źródło: Materiały prasowe TVP 2
REKLAMA

Piotr Urbaniak
Piotr Urbaniak
@gtxxor
Kiedy za, co by nie mówić, skomplikowane niuanse techniczne bierze się zespół laików, efekt jest łatwy do przewidzenia. Właśnie przekonali się o tym pracownicy TVP 2, dopuszczając do karygodnych błędów w ostatnim odcinku teleturnieju „Familiada”, prowadzonego przez znanego ze specyficznego poczucia humoru Karola Strasburgera.

Zadaniem uczestników było wymienienie języków programowania.



Jak wiadomo, „Familiada” bazuje na odpowiedziach grupy ankietowanych osób. Innymi słowy: liczbę punktów przyznawanych za odpowiedź warunkuje to, ilu ankietowanych odpowie analogicznie. Tylko, co w przypadku, kiedy respondenci nie mają zielonego pojęcia na dany temat? Ano wychodzi na to, że producenci programu zbytnio się tym nie przejmują.

Najwyżej punktowanym wśród języków programowania okazał się... HTML, który tak naprawdę w ogóle nie jest językiem programowania, lecz znaczników. Odpowiedź „Java” postanowiono natomiast zaliczać jako JavaScript, choć to kompletnie odmienne języki, pomimo zbliżonego nazewnictwa. Java jest kompilowana, JavaScript zaś – jak sama nazwa wskazuje, skryptowy. Za to odpowiedzi "C" jako C++ już nie zaliczono, a przecież, patrząc z technicznego punktu widzenia, tym dwóm językom znacznie bliżej do siebie niż Javie i JavaScryptowi; C++ jest pod wieloma względami zgodny z C.

Oczywiście internauci szybko podłapali temat i na producentów teleturnieju wylała się fala krytyki. W serwisie Wykop znalezisko zainteresowało blisko 1,2 tys. osób. Cóż, nie da się ukryć, pomyłki ankietowanych i – później – zespołu odpowiedzialnego za interpretację odpowiedzi bezpośrednio wypaczyły wynik rywalizacji. Tymczasem gra toczyła się o prawdziwe pieniądze (nagroda za wygranie finału: 15 tys. zł), i to na oczach milionów polskich telewidzów.

...

Widzicie ze informatyka to zamkniety swiat! Albo znasz dobrze albo wcale. Trudno sie dziwic to jest dla zwyklego czlowieka zupelnie nieprzydatne. Jedyny element do nauczenia to przycisk power...


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Czw 20:35, 14 Mar 2019    Temat postu:

Pecetowa nostalgia: czy kiedyś oprogramowanie było lepsze?
Strona główna Aktualności14.03.2019 07:33
Cczy kiedyś oprogramowanie było lepsze (dobreprogramy) Cczy kiedyś oprogramowanie było lepsze (dobreprogramy)

Kamil J. Dudek
Kamil J. Dudek
@wielkipiec
Wciąż szukamy odpowiedzi na pytanie, za czym tęsknimy w starych pecetach. Ponownie będziemy więc sięgać pamięcią kilkanaście lat wstecz. Poprzednio zajmowaliśmy się retro-sprzętem, tym razem zajmijmy się retro-oprogramowaniem. Dlaczego tak często uznajemy stare wersje naszych ulubionych programów za w jakiś sposób lepsze, pełniej pokrywające nasz zbiór wymagań? Wiele dziś używanych aplikacji to nowe wersje tych samych programów, które były w użyciu dziesięć czy piętnaście lat temu. Logika nakazywałaby, że przez ten czas dokonano w nich szeregu udoskonaleń, a mimo to tak często wzbraniamy się przed aktualizacją. Zupełnie tak, jakby przez owe lata dokonał się wręcz regres, a nie postęp.

REKLAMA
Krótkie ćwiczenie dla tych przed pecetami: spójrzmy na nasz pasek zadań (lub dok). Zidentyfikujmy uruchomione lub przypięte do niego programy. Jeżeli mamy bardziej produktywny dzień, będzie się wśród nich znajdować więcej aplikacji, niż tylko przeglądarka internetowa. Jeżeli jednak trafimy tak, że „na pasku” znajduje się tylko np. Chrome, to przyjrzyjmy się stronom internetowym, które są w nim otwarte. Ze szczególnym uwzględnieniem tych otwartych przez cały czas.

Bardzo często pasek kart to nasz nowy pasek zadań
Bardzo często pasek kart to nasz nowy pasek zadań
W dowcipach informatycznych często pojawia się pojęcie „peak software”, czyli punktu w rozwoju oprogramowania, po którym nie powinno się tworzyć nowych jego wersji. Ludzka niechęć do zmian sprawia, że dużo ludzi identyfikuje takie punkty w cyklu życia używanych przez siebie programów. Zależność od wieku sprawia, że bardzo często chwali się wersje, z którymi na przykład przyszło dorastać lub zaczynać pierwszą, dobrze wspominaną pracę. Ma to mniej wspólnego z rzeczywistą jakością oprogramowania, w praktyce jest intuicyjną reakcją na konieczność zmiany przyzwyczajeń. Faktem jest jednak, że taki pakiet Microsoft Office 2000 zajmował 280 megabajtów, a najnowsza wersja wariantu 365 zajmuje dziś około pięciu gigabajtów. Podczas, gdy wiele osób wykorzystuje mniej więcej ten sam zbiór funkcji, co dwie dekady temu. Czy chodzi więc o to, że oprogramowanie spuchło? Po części tak, ale to subiektywna kwestia. Źródeł nostalgii jest więcej. Oto krótki przegląd tych najważniejszych.

Bloatware, czyli kiedyś programy były mniejsze
Istotnie, dwudziestokrotny wzrost rozmiarów pakietu Office każe zadać pytanie, czy ów zestaw stał się w efekcie dwudziestokrotnie lepszy. Można zaryzykować tezę, że nie – zresztą każdemu z nas łatwo będzie wymyślić na poczekaniu dziesięć rzeczy, których w nim brakuje. Nie jest również prawdą, że nowy Office pracuje wskutek przemian dwudziestokrotnie wolniej, ale to już nieco lepszy trop. Anegdotyczne Prawo Wirtha mówi nam, że programy zjadają przyrost mocy komputerów szybciej, nż ten przyrost następuje. Wspomniany Office 2000 uruchomi się na najnowszym komputerze w ułamek sekundy, nie zdążywszy nawet wyświetlić ekranu tytułowego. Sęk w tym, że na komputerze sprzed dwóch dekad, start Office'a 2000 trwał mniej więcej tyle samo, co dzisiejszy start np. Worda 365. Dawne oprogramowanie działa więc naturalnie szybciej, ale nie możemy tęsknić do tej jego cechy, ponieważ dawniej działało ono tak samo powoli, jak dzisiejsze, nowe wersje.

PowerPoint czasem każe na siebie trochę poczekać
PowerPoint czasem każe na siebie trochę poczekać
Oczywiście, są programy zjadające zasoby o wiele mocniej, niż Office. Doskonałym przykładem ze stajni Microsoftu, wyjąwszy rzecz jasna z rozważań sam system Windows, jest środowisko Visual Studio. Co kilka lat dokonuje ono dławiącego skoku w ociężałości. Wydawanie sądów na temat VS jest trudne, ponieważ na przestrzeni ostatnich kilku lat pakiet ten stał się zintegrowanym środowiskiem programistycznym dla wielu platform, nie tylko tych z Redmond. Instalator zaopatruje nas w emulatory Androida, Javę, kilka dystrybucji języka Python oraz biblioteki programowania gier 3D. Najnowsza wersja umie o wiele więcej, niż np. Visual Studio 2010 (swoją drogą wydane kwartał później z powodu... problemów z wydajnością!). Jednakże pakiet rośnie również w miejscach, gdzie nie powinien. Zestawienie prostego projektu Hello World w języku C♯ to konieczność czekania kilkunastu sekund na przygotowanie środowiska. Spędza się je na patrzeniu w paski postępu ładowania kolejnych toolboksów. Problem stał się na tyle zauważalny, że zniechęcił zupełnie ludzi przywykłych do innego stylu programowania, np. „webowców” czy kogokolwiek z doświadczeniem czysto linuksowym. Dlatego biblioteki .NET Core działają już w pełni konsolowo i możliwe jest pisanie programów w czystym edytorze tekstu. Ale to tylko dygresja...

Design, czyli kiedyś programy były... ładniejsze?
Nie da się uciec od poczucia estetyki, a siła przyzwyczajeń potrafi wpłynąć nawet na najbardziej wyrobiony gust. Każde nowe wzornictwo wywołuje dezaprobatę u rzesz odbiorców, rozmiłowanych w poprzednim. Co ciekawe, dzieje się tak niezależnie od tego, jaka akurat nowa moda wypiera poprzednią. Podnoszono oburzenie, gdy Windows XP wprowadził bardziej kolorowy interfejs. Wybuchły internetowe zamieszki, gdy okazało się, jak wygląda Vista. I zarzucano kompletny brak kreatywności, gdy nadeszła era płaskich interfejsów i prostych kształtów. Użytkownicy Maków również niekoniecznie przychylnie patrzyli początkowo na całkowicie dosłowne wzornictwo jabłkowego systemu w wersji X. Jakkolwiek można dyskutować, czy każdy z owych trendów był drogą we właściwym kierunku, to wątpliwości nie ulega fakt ucieczki od czegoś uznanego za szkodliwe i anachroniczne.

Red Hat Linux 7.3 był systemem o podważalnej estetyce
Red Hat Linux 7.3 był systemem o podważalnej estetyce
Ciepło wspominany Windows 2000 i jego poprzednicy oferowali interfejsy użytkownika bez wygładzanych czcionek. Ma to w sobie oczywiście pewne brutalistyczne piękno, ale w opinii powszechnego odbiorcy, kanciaste literki były symbolem marności. To komputer nie dawał sobie wszak rady z ładnymi glifami, a przecież wszystko wokół (np. książki) zawierało bardzo ładne czcionki. Stąd w systemie pojawił się ClearType. Z kolei estetyka systemu OS X oraz Longhorna to zachłyśnięcie się potęgą mocy nowoczesnych komputerów. Pamiętajmy bowiem, że skromne ikony z lat dziewięćdziesiątych (i starsze) od początku aspirowały do bycia dosłownymi. Przeszkadzały im w tym niska rozdzielczość, zredukowana paleta dostępnych kolorów i ograniczenia pamięci operacyjnej. Gdy owe ograniczenia zniknęły, literalne wzornictwo, pełne skomplikowanych kształtów i błyszczących powierzchni, było naturalnym krokiem. Bezsprzecznie, jest to obciążenie dla zasobów komputera. Retro-użytkownicy, przyzwyczajeni do tego, że komputery szybko się starzeją, uznawali to za marnotrawstwo. Ten pogląd, zestawiony z siłą przyzwyczajeń, dodawał staremu designowi estymy, przez co wiele osób kojarzy go jako ładniejszy, niż „vistowa pstrokacizna”. Musimy jednak pamiętać, że dawne ikony nie były jasno wyartykułowanym stylem, a jedynie efektem funkcjonalnego kompromisu.

#retroquiz Czy pamiętasz ten program?
Rozwiąż quiz
Sprawdź, jak dobrze pamiętasz niegdyś popularny software
Płaskie wzornictwo również zebrało szerokie grono przeciwników, aczkolwiek (nie zawsze świadomie) argumenty przeciwko flat design są argumentami wymierzonymi w całą, ogólną koncepcję zadaniowej interakcji z urządzeniem. Innymi słowy – nie chodzi o ikonki, a o to, że zamiast zestawu opcji ostały się trzy przyciski i reklama. Zajmujące osiemset czterdzieści trzy megabajty pamięci. A więc chodzi tu niekoniecznie o stylistykę, a również o ergonomię. Windows 8 i jego WinRT, używane również w aplikacjach UWP systemu Windows 10, oferują zbiór widgetów bardzo dobrze skalujących się na ekranach o różnych wielkościach. I nie mowa tu o telefonach i tabletach, a o monitorach czysto pecetowych. Poza tym, ustrój UI wymusza już na etapie kodowania o wiele większą konsekwencję, niż w przypadku aplikacji Win32 lub .NET Windows Forms. Ponadto, instancja aplikacji jest rysowana z pominięciem przeklętego, pełnego dziur i rozrośniętego mechanizmu GDI, co czyni je bezpieczniejszymi z definicji.

Brak skalowania i tylko 256 kolorów, ale ma to swój urok
Brak skalowania i tylko 256 kolorów, ale ma to swój urok
Niestety, koszt takiego przedsięwzięcia jest olbrzymi. Wszystkie niniejsze zalety stają się obiektem powszechnej pogardy, czy wręcz jawnej negacji, gdy okazuje się, jakie jest zapotrzebowanie aplikacji UWP na pamięć operacyjną. Nowoczesne interfejsy potrafią też, mimo pięknego narysowania się na 27-calowym monitorze 4K, mocno przycinać, gdy komputer jest zajęty. Marna aplikacja z UI stworzonym w C++ MFC będzie na takim ekranie albo rozmyta, albo mikroskopijna, ale na wszystkie kliknięcia będzie reagować natychmiast. Zupełnie tak, jak reagowała dziesięć lat wcześniej. Aktualizacja aplikacji UWP potrafi w dodatku mocno wytłuc dysk i baterię urządzeń przenośnych, co jest niezmiennie zdumiewające w świetle ich rzekomej energooszczędności. Dzięki takim właśnie cechom tak łatwo nam zatęsknić za starszymi wersjami oprogramowania.

Zbyt dużo lub zbyt łatwo, czyli ergonomia
Ergonomia potrafi zresztą być kulą u nogi dla osób, których nawyki ukształtowały się w czasach... mniej ergonomicznych. Aplikacja pocztowa GMail, dostępna na telefonach, wygląda jakby nie oferowała żadnych funkcji i nadawała się jedynie do wysyłania prostych wiadomości, i to zresztą nie bez wysiłku. Kafelek „Poczta” systemu Windows 10 jest tak spartański, że sprawia wrażenie niekompletnie załadowanego interfejsu. Nawet archaiczny Outlook Express, będący przecież programem do podstawowych zastosowań, w wizualnym porównaniu zdaje się ociekać funkcjonalnością. Wskutek owego kontrastu, nowe interfejsy uznaje się za obrazę i próbę uproszczenia czegoś, co nie powinno być aż tak proste.

PowerPoint 365
PowerPoint 365
Dyżurnym chłopcem do bicia jest oczywiście wstążka Microsoft Office. Zadebiutowała ponad 12 lat temu, a wersja pakietu, w której miała swoją premierę nie otrzymuje już nawet aktualizacji, ale nadal istnieją osoby, które uznają interfejs Office 2007 za fanaberię i głupotę. Wiele funkcji w aplikacjach składowych pakietu wydaje się ukrytych lub usuniętych, jeżeli zestawimy dzisiejszy interfejs z tym dostępnym na przełomie wieków. Eksperci, którzy zapamiętali mięśniowo wędrówki po wielopoziomowych paskach menu faktycznie mieli problemy z odnalezieniem poszukiwanych funkcji na wstążce.

Różnica jest jednak bardzo często dość... psychologiczna. Nie chodzi tylko o pójście w poprzek przyzwyczajeniom lub nadmierne uproszczenie interfejsów, do poziomu na którym z powrotem stały się trudne. Łatwe aplikacje odzierają zadania z tajemniczości i aury skomplikowania. Gdy Excel wygląda złowrogo i pełen jest nieopisanych, dziwnych przycisków, praca z nim musi być niesamowicie trudna – w opinii obserwatora. Natomiast gdy jest przyjemnym, kolorowym programem pełnym gładkich przycisków i przystępnych kreatorów, wygląda na coś, z czym każdy mógłby sobie poradzić bez trudności (co znaczy: za mniejsze pieniądze). Gdy oprogramowanie staje się do bólu proste, cały ten branżowy „sekretny klub na drzewie” okazuje się być na wyciągnięcie ręki.

Cóż za przepysznie skomplikowany interfejs!
Cóż za przepysznie skomplikowany interfejs!
Z jednej strony to bezczelny elityzm i mitomania. Acz nie zawsze. Uczynienie pewnych zadań pozornie banalnymi przyciąga nie tylko ludzi, którzy niskim wysiłkiem posiedli niegdyś tajemną wiedzę, ale również takich, którzy błędnie uwierzyli w to, że są kompetentni. Dotyczy to nie tylko osób głęboko wierzących w swoje rzekome umiejętności obsługi Excela, ale również początkujących programistów, którzy padli ofiarą obietnic kursów Pythona.

Cały system na dyskietce, a więc prostota
Przeważnie jednak nie tęsknimy za czymś bo było trudne, a raczej dlatego, że było łatwe. Ogólnie mniejsze i prostsze – nie w obsłudze, a w konstrukcji. System operacyjny MS-DOS był zupełnie nieprzystępny dla laika. Posadzenie losowej osoby przed monitorem poskutkowałoby całkowitą bezradnością. Sam system był jednak bardzo prosty w swej budowie. Do pracy wymagał tylko kilku plików i był jednozadaniowy. Uruchamianie zadań w tle było niezwykle skomplikowane: wymagało ładowania programów w charakterze sterownika z poziomu specjalnego pliku CONFIG.SYS lub wykorzystanie wywołania INT 27h, by po zakończeniu pracy pozostać w pamięci. Aby móc działać w ten sposób, program musiał być specjalnie zaprojektowany, a niniejsze zachowanie było na tyle nietypowe, że tego typu programy stanowiły oddzielną klasę zwaną TSR, czyli programami rezydentnymi. Program taki należało oczywiście ręcznie uruchomić, samodzielnie. Oznacza to, że bez świadomego załadowania programów typu MOUSE, BLASTER lub DOSKEY, komputer z systemem MS-DOS nic nie robił za naszymi plecami.

Pod maską starych systemów działo się niewiele
Pod maską starych systemów działo się niewiele
Pojęcie programów TSR traci sens w przypadku wielozadaniowych systemów operacyjnych, jak Windows 95, ale i ten system był stosunkowo mało skomplikowany. Pierwsze 32-bitowe Windowsy pracowały z bardzo skromną listą procesów, czy też zadań (jedynym procesem był wszak VMM32). W przestrzeni użytkownika były to EXPLORER oraz opcjonalnie INTERNAT i SYSTRAY. Po stronie systemu pracowały KERNEL, MSGSRV i opcjonalnie MMTASK. Niniejszy zbiór zadań dostarczał całe działające środowisko. Co ciekawe, zadań tych nigdy nie rozszerzono o nowe funkcje. Każda nowa funkcjonalność, np. obsługa myszy USB, była realizowana za pomocą nowych zadań. Na wielu komputerach z Windows 98 (a takich w Polsce były setki tysięcy) faktycznie pracowało tylko 5 procesów.

Nowoczesne systemy są wiecznie czymś zajęte
A jak jest dzisiaj? Na komputerze, na którym powstaje niniejszy tekst jest obecnie uruchomionych 146 procesów. Gdy zamknę wszystkie widoczne aplikację i dobrnę do gołego pulpitu, uda mi się zmniejszyć tę liczbę do 96. A więc do niemal setki procesów! Większość z nich wcale nie jest uśpiona i wciąż coś robi. Gdy komputer pozostanie nietknięty przez jakieś pół godziny, rozpocznie się defragmentacja dysków twardych (tych talerzowych), pobranie aktualizacji systemu, aplikacji Sklepu i kilku pozostałych, Oczyszczanie Dysku, odświeżenie Rejestru Telemetrycznego Kompatybilności, przebudowanie obrazów natywnych .NET no i oczywiście skanowanie antywirusowe programu Windows Defender. Pomijamy tu oczywiście kolejne setki zadań zdefiniowanych w systemowym Harmonogramie Zadań (polecam tam zajrzeć!): aktualizacja map, inwentaryzacja telewizorów z funkcją DLNA i Miracast w sieci LAN, synchronizacja stref czasowych, kopia zapasowa Rejestru, pokaz slajdów tapety Spotlight...

Prędko okaże się, że dzisiejszy Windows 10 jest niezwykle zajęty utrzymywaniem samego siebie. Wyłączenie owego zbioru dodatków pozwoli przekonać się o rzeczywistej prędkości Windowsa, wcale niemałej. Aczkolwiek domyślnie skonfigurowany system to przeciwieństwo dawnych zestawów. Składa się z wielu ruchomych elementów, nad którymi nie mamy szczególnej kontroli. Komputer wykonuje tysiące czynności, na które nie mamy żadnego wpływu, w przeciwieństwie do tych dawnych, które pracowały tylko wtedy, gdy tego od nich oczekiwano.

Należy pamiętać, że pośród tych wszystkich ciężkich nowości znajdują się też elementy, które wcale nie są takie zbędne. Antyczny MS-DOS pozwalał na pełną kontrolę nad sobą, bo nie potrafił ładować sterowników, a sam dostarczał tak mało funkcji, że twórcy trudniejszych aplikacji decydowali się odwoływać bezpośrednio do sprzętu, z pominięciem systemu. Z kolei Windows 95 i 98 były małe i łatwe w utrzymaniu, ale ze swej natury były szalenie niestabilne. Zwiększona stabilność przyszła po latach wraz z istotnym wzrostem złożoności. Acz niewątpliwie, dawne awarie było diagnozować o wiele łatwiej, niż dzisiejsze fochy Dziesiątki, mówiącej na przykład „coś poszło nie tak”...

Czy naprawdę potrzebujemy powodu?
Zresztą, nie zawsze koniecznie trzeba szukać uzasadnień w kwestii tego, za czym tak naprawdę tęsknimy. Być może dawna estetyka po prostu budzi skojarzenia z prostszymi czasami? Prostszymi biograficznie, nie komputerowo. Dzięki temu tak chętnie niektórzy zaglądają do swoich kolekcji Multimedialnych Encyklopedii na CD-ROMach, uruchamiają stare wersje programów o spartańskim interfejsie i niewygładzonych czcionkach i tak dalej. Nie ma w tym przecież nic złego. Istnieją całe społeczności zgromadzone właśnie wokół tego. To i tak znacznie mniej szkodliwe hobby, niż retro sprzęt, pełen rakotwórczych substancji, hałaśliwych dysków, ostrych krawędzi i migoczących monitorów! 💾💖

..

Oczywiscie cos nie jest dobre bo jest stare! Grafika lat 80 tych nie byla lepsza.
Jednakze 20RAZY wieksze programy ktorymi robimy TO SAMO to perwersja!
Po prostu dyski sa teraz duze to sie nie staraja. Pisza nowe na starym dopisuja nie usuwaja starego i dostajemy wielki smietnik. Co boli na tabletach ktore wciaz maja po 12 G pamieci i nie sposob instalowac czegos z pc nawet jak jest emulator. Program musi byc maly na tyle na ile mozna. Pisac trzeba starannie. Po tym poznajemy mistrza ze umie sie streszczac! Lanie wody to dziadostwo.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Nie 17:54, 04 Cze 2023    Temat postu:

Prezes Nvidii: "Dzięki AI każdy będzie mógł stać się programistą"

Podczas targów Computex 2023 szef Nvidii, Jensen Huang dokonał obszernej analizy rozwoju sztucznej inteligencji i jej wpływu na poszczególne dziedziny życia. Zwrócił on uwagę m.in. na znaczące upowszechnienie zdolności programowania z wykorzystaniem potężnych narzędzi, korzystających z AI.

...

Istotnie na razie obrazki ale z czasem przecież da się wyobrazić że zechce mieć grę i mi AI wygeneruje. Tak jak obrazek. Opiszę co chce i zrobi. Super! Oczywiście długa droga! Obrazek to jednak proscizna. To zbiór kropek. Gra musi być logiczna od początku do końca a jeśli ma być 3d to komplikacje rośnie niewyobrażalnie. Ale da się zrobić!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 135916
Przeczytał: 62 tematy

Ostrzeżeń: 0/5

PostWysłany: Sob 11:49, 09 Lis 2024    Temat postu:

Nowe badania pokazują że AI nie zastąpi programistów
Firmy, które włączyły do swojego procesu AI profilowane do generowania kodu jak Copilot borykają się z większą liczbą błędów i zmian co prowadzi do zwiększenia kosztów. AI nadaje się tylko do pomocy niedoświadczonym programistom

..

Pewnie też zależy do czego. Z prostych zajęć pewnie wytnie ale AI nie zrobi superkodu np. gry. Za trudne. Wszystko co kreatywne ciężko zastąpić automatem. To w końcu automat. I o ile tłoczenie puszek znakomicie robią maszyny to już projektowanie wnętrz ciężko było zautomatyzować i tak że wszystkim. AI to po prostu dużo lepszy automat.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
Wyświetl posty z ostatnich:   
Napisz nowy temat   Odpowiedz do tematu    Forum Religia,Polityka,Gospodarka Strona Główna -> Wiedza i Nauka Wszystkie czasy w strefie EET (Europa)
Strona 1 z 1

 
Skocz do:  
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach


fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
cbx v1.2 // Theme created by Sopel & Programy