Jump to content

معلومات

د ويکيپېډيا، وړیا پوهنغونډ له خوا

معلومات پروسس شوي، منظم او ساختمان شوې ډيټا ده. معلومات د خامو موادو لپاره زمينه برابروي او د پریکړې کولو توان ورکوي. د بېلګې په ډول: په يوه رستورانت کې د يوه پېريدونکي خرڅلاو ديټا يا خام مواد دي، کله چې سوداګري د تر ټولو زيات يا تر ټولو لږ مشهورو خوړو د مشخص کولو وړتيا ولري، دې حالت ته يې معلومات وايي. [۱]

په یو څه زيات تخنيکي ډول، معلومات کولی شي، د نامعلومتيا يا شک د پایلې په توګه په نظر کې ونيول شي. دا «د بدن يا هستي څه دی؟» پوښتنې ته ځواب وايي او په دې ډول خپل ماهيت او د ځانګړنو طبيعت يې دواړه تعريفوي. د معلوماتو مفهوم په بېلابېلو برخو کې بېلابېلې معناګانې لري. پر دې بنسټ، د معلوماتو مفهوم د اجبار، مفاهيمې، کنترول، خامو توکو، بڼې، زده کړې، پوهې، معنا، درک، ذهني انګیزې، طرحې، ادراک، ورته والي، استازولۍ او entropy له نظرياتو سره مترادف کېږي. [۲]

معلومات له ډيټا سره ملګري دي. توپير يې دا دی چې، معلومات نامعلومتيا يا شک تحليلوي. کولی شي ډېرې زياتې نښې وړاندې کړي، مګر د مطلوبې ډيټا د تراکم په واسطه معلوماتو ته رسېږي.

معلومات کولی شي، په وخت کې د ډيټا ذخيرې، فضا، اړيکو ، مفاهمې او مخابراتو په واسطه ولېږدول شي. معلومات يا د پيغام د محتوا او يا د مستقيمې يا غير مستقيمې ارزونې په واسطه څرګندېږي. هغه څه چې درک شوي دي، کولی شي په خپل ځای د پيغام په توګه تعبير شي او په هغه حس کې، معلومات تل د يوه پيغام د محتوا په توګه لېږدول کېږي. [۳]

معلومات کولی شي د لېږد او تعبير بېلابېلو بڼو ته رمز شوي يا کود شوي وي. د بېلګې په ډول: معلومات کېدای شي د نښو يوې لړۍ کې ترتيب شوي وي يا د يو سيګنال يا اشارې په واسطه ولېږدول شي. معلومات همدارنګه کولی شي د خوندي زېرمې او مفاهمې لپاره کود ته واړول شي.

د يوې پېښې نامعلومتيا د هغې د واقع کېدنې د احتمال په واسطه اندازه کېږي. نامعلومتيا په معکوس ډول د واقع کېدنې احتمال ته د تناسب وړ ده. د معلوماتو نظريه د دې په شاملولو سره د دې حقيقت ګټه تر لاسه کوي، چې ډېرې نامعلومه پېښې، د هغوی د نامعلومتيا د معلومولو لپاره د زياتو معلوماتو غوښتنه کوي. bit د معلوماتو د اندازه کولو يو نمونه يي واحد دی، چې نامعلومتيا په نيمايي راکموي. نور واحدونه، لکه: nat هم کېدای شي وکارول شي. د نمونې په ډول: هغه معلومات چې په يوه مناسب coin flip کې ترتيبېږي، Log2(2/1) = 1 bit دي او په دوو مناسبو coin flips کې Log2(4/1) = 2 bit دي. د ۲۰۱۱ ز کال يوې علمي مقالې اټکل کړی چې په ټيکنالوژيکي ډول زېرمه شوي ٪۹۷ معلومات، وار له مخه په ۲۰۰۷ز کې په عددي ډول وو او ۲۰۰۲ ز کال د معلوماتو د زېرمې لپاره د ډيجيټل يا عددي عصر پيل و (د عددي زېرمې په ظرفيت سره د لومړي ځل لپاره انالوګ ته په تېرېدلو سره). [۴][۵]

ريښه

[سمول]

د معلوماتو يا (information) وییکي(لغت)، له منځنۍ فرانسوي (enformacion/informacion/information) نه اخېستل شوی دی، چې يوې ستوریزې پلټنې او د هغې د etymon معنا لري. له لاتيني (informatiō(n) ) نه اخېستل شوی دی، چې د مفهوم، تدريس او نوښت معناګانې لري. [۶]

د معلوماتو (information) وییکي(لغت)، په انګليسي کې يو نه شمېرېدونکی نوم دی.

د معلوماتو نظريه

[سمول]

د معلوماتو تيوري د تعريف یا خاص تعين، زېرمې او د معلوماتو د مفاهمې علمي څېړنه ده. دا مسلک دا برخه په بنسټيز ډول د هري نايکوېسټ (Harry Nyquist) او هارټلي (Ralph Hartley) د فعاليتونو په واسطه په ۱۹۲۰ ز لسيزه کې او په ۱۹۴۰ ز لسيزه کې د کلاوډ شاننون (Claude Shannon) په واسطه رامنځته شوه. ذکر شوې برخه ( ساحه) د احتمال نظريې، احصايې، کمپيوټر ساينس، د احصايوي ميخانيک، معلوماتو د انجنيرۍ او برېښنايي انجنيرۍ په تقاطع کې قرار لري.

د معلوماتو په نظريه کې يو کليدي معيار entropy ده. entropy د هغه نامعلومتيا اندازه يا د يو random process پایله معلوموي، چې د يو random variable په ارزښت يا value کې شامله ده. د بېلګې په ډول: د يوه مناسب coin flip پایلې مشخص کول (په دوه مساوي ډول ورته پایلو سره) د يو die له ونډې نه د پایلې د مشخص کولو (په شپږ مساوي ډول پایلو) په پرتله لږ معلومات برابروي. د معلوماتو په نظريه کې ځينې نور مهم معيارونه دوه اړخيز معلومات، د کانال يا چينل ظرفيت، د تېروتنې(اشتباه) طاقت او relative entropy دي. د معلوماتو د نظريې فرعي برخې، د سرچينې رمز کوونه (source coding)، د الګوريتميک پېچلتيا نظريه (algorithmic complexity theory)، د الګوريتميک معلوماتو نظريه (algorithmic information theory) او د معلوماتو نظریاتي خونديتوب (information-theoretic security) دي.

د معلوماتو د نظريې د بنسټيزو مقالو غوښتنې د نه له منځه تلونکې ډيټا کود ته اړول، لکه: Zip دوسيې، د له منځه تلونکې ډيټا کود ته اړول، لکه: MP3s او JPEGs او د کانال يا چينل رمز کوونه، لکه: د DSL لپاره شاملوي. د دې اغېزه ژورې فضا ته د اوياګر (Voyager) د ماموريتونو بريا، د CD، د ګرځنده تيليفونونو اسانتیا او د انټرنيټ پرمختګ ته فيصله کوونکې يا قاطع ده. ذکر شوې نظريې د احصائيوي استنتاج، رمزي ليکنې، د عصب بيولوژي، ادراک، ادبياتو، تدريجي تکامل او د ماليکولي کودونو د دندې، حرارتي فزيک، د quantum محاسبې، black holes، د معلوماتو د بيا موندلو، د ځيرکتيا د يوځای کوونې، د ادبي غلا د کشف کوونې، د طرحې د پېژندنې، نامنظم موندونکي (anomaly detection) او ان د هنر د نوښت په ګډون په نورو ساحو کې هم کاريالونه يا Applications موندلي دي.[۷][۸][۹][۱۰][۱۱][۱۲][۱۳][۱۴]

معلومات ډېری وختونه يو ژوندي موجود يا سيستم ته دننه اېښودنې (input) د يو ډول په توګه کتل کېدای شي. دننه اېښودنې Inputs) په دوه ډوله دي. ځينې دننه اېښودنې، لکه: خواړه د دوی د انرژۍ په واسطه، د ژوندي موجود يا سيستم د دندې لپاره اړين دي. د بيولوژي-فزيکپوه ډيويډ بي ډسينبيري (David B. Dusenbery) په خپل کتاب حسي ايکالوژي (Sensory Ecology) کې دې دننه اېښودنو ته سببي دننه اېښودنې وويلې. نور inputs (معلومات) يوازې د دې لپاره اړين دي، چې له سببي inputs سره ملګري دي او کولی شي، په يوه وروسته (فرض کړئ يو بل ځای کې) د سببي دننه اېښودنې د واقع کېدنې د اټکل لپاره وکارول شي. ځيني معلومات له نورو معلوماتو سره د ملګرتيا له امله اړين دي، مګر په پای کې يو سببي input ته بايد يوه اړيکه ولري. [۱۵]

په عمل کې معلومات په عادي ډول د کمزورې هڅوونکې يا انګېزې په واسطه وړل کېږي، چې بايد د ځانګړو حسي سيستمونو په واسطه وموندل شي او مخکې له دې چې ژوندي موجود يا سيستم ته وظيفوي واوسېدلی شي، بايد انرژۍ د inputs په واسطه، پراخه او خپره شي. د بېلګې په ډول: رڼا په اصل کې (مګر يوازينی نه دی. لکه: نباتات کولی شي، د رڼا د سرچينې پر لوري وده وکړي) نباتاتو ته يو سببي دننه اېښودنه يا input دی، مګر د حيواناتو لپاره يوازې معلومات برابروي. له يوه ګل نه منعکس شوې رنګه رڼا، د فوتوسنتيز لپاره ډېره کمزورې ده، مګر د مچۍ د باصرې يا ليدلو سيستم هغه کشف کوي او د مچۍ عصبي سيستم هغه معلومات کاروي، چې مچۍ ګل ته رهبري کوي. مچۍ هلته ډېر ځله د ګل شيره يا ګرده پيداکوي، چې سببي دننه اېښودنې يا inputs دي او د يوې تغذيوي دندې خدمت کوي.

د ادراک عالم او تطبيقي رياضيپوه رونالډ ويګو (Ronaldo Vigo) استدلال کوي، چې معلومات هغه مفهوم دی چې د مقداري حس د جوړولو لپاره لږ تر لږه د دوو اړوندو موجوداتو غوښتنه کوي. د s څيزونو په پراخه ډول تعريف شوې هره ډله او د دې هر فرعي سيټونه R شته. R په طبيعت کې د S استازی دی. يا په بله وینا: R د S په اړه د استازولۍ (او په دې دليل مفهومي) معلومات لېږدوي. ويګو (Vigo) له دې وروسته د معلوماتو اندازه تعريفوي، چې R يې د S په پېچلتيا کې د بدلون د قيمت په توګه د S په اړه لېږدوي، هر کله چې په R کې مفعولونه يا شيان له S نه لرې او محوه شي. د معلوماتو په اړه د ويګو (Vigo) د تعريف له مخې، د طبیعي علم پنځه بنسټونه: نمونه يا فردي ځانګړنه، بدلون نه منلتيا، پېچلتيا، استازولي او معلومات تر يوه غير معادي رياضيکې کار چوکاټ يا بدنې لاندې يو شوي دي. د نورو شيانو تر منځ ذکر شوې بدنه يا کاري چوکاټ موخه لري چې، د شېنن ويور په معلوماتو (Shannon-Weaver information) [د معلوماتو په اړه د ويور په نظر يا تعریف باندې] غالب شي، کله چې د شخصي يا فاعلي معلوماتو د ځانګړي کولو او اندازه کولو هڅه کوي. [۱۶][۱۷][۱۸]

معلومات د نمونې يا فردي صفتونو او ځانګړنو هر هغه ډول دی، چې د نورو نمونو يا فردي ځانګړنو او صفتونو جوړښت يا بدلون باندې اغېزه کوي. په دې حس کې د ادراک لپاره يو پوه ذهن ته اړتيا نه شته، ذهن د فردی ځانګړنې يا صفت ډېره لږه خبرتيا لري. د بېلګې په ډول: ډای نيوکليک اسيد (DNA) ته پام وکړئ. د نيکليوټايدونو (nucleotides) لړۍ هغه نمونه ده يا فردي ځانګړنه ده، چې يو پوه ذهن ته له اړتيا نه پرته د يوه ژوندي جسم جوړښت او وده اغېزمنوي. سره له دې چې يو څوک کېدای شي، د انسان په اړه استدلال وکړي، چې په شعوري يا اګاهانه ډول يوه نمونه يا فردي ځانګړنه تعريف کړي. د بېلګې په ډول: نيکليوټايد په طبيعي ډول د شعوري يا اګاهانه معلوماتو اوښتون يا پروسسنګ په غېږ کې نيسي. [۱۹][۲۰]

د سيستمونو نظريه، په وختونو کې کتل کېږي، چې په دې حس کې معلوماتو ته ورګرځي. د معلوماتو فرض کول په اړين ډول کوم شعوري ذهن نه شاملوي او په دې سيستم کې د فردي ځانګړنو او خصوصياتو دوران ته معلومات وايي. په بله وینا: ويل کېدلی شي چې معلومات په دې حس کې د پټ استعداد له مخې د انځور يا نښې په توګه درک شوي، کوم څه دي، که څه هم، د هغې موخې لپاره نه دي وړاندي شوي. د بېلګې په ډول: ګريګوري باټيسن  معلومات د هغه يو توپير په توګه تعريفوي، چې يو توپير جوړوي. [۲۱]

که څه هم د اغېزې منطق استنباطوي چې، معلومات د يوه شعوري ذهن په واسطه درک او د همدې په واسطه تعبير شوي دي،له دې تعبير سره ملګرې مشخصه زمینه او برخه کېدای شي ،پوهې ته د معلوماتو د بدلون سبب شي. د معلوماتو او پوهې پېچلي تعريفونه دا ډول semantic او منطقي تحليل سختوي، مګر د بدلون حالت د معلوماتو په څېړنه کې يو اړين ټکی ځکه دی، چې له پوهې سره اړيکه لري، په ځانګړي ډول د پوهې د تنظيم (knowledge management) په سوداګريز انظباط او نظم کې. په دې عمل کې توکي او پړاوونه کارېږي، تر څو د پوهې له کارکوونکي سره د لاندې پړاوونو په ګډون د څېړنې په تر سره کولو او پریکړو کولو کې مرسته وکړي.

  • د معلوماتو بيا کتل چې په اغېزناک ډول value او معنا تر لاسه شي.
  • ميټا ډيټا Metadata ته ورګرځېدنه يا د اړيکې نسبت، که چېرې د لاسرسي وړ وي.
  • د اړونده متن خپرول، ډېری وخت له زياتو ممکنه متنونو يا زمينو نه.
  • له معلوماتو نه د نوې پوهې استنباطول.
  • د پايلې له پوهې نه پریکړې يا سپارښتنې کول.

سټيوارټ (Stewart) ۲۰۰۱ ز بحث کوي چې، د ارزښت value د پيدايښت په هسته کې په درواغو سره علم يا پوهې ته د معلوماتو لېږد خطرناک دی او د معاصرې دستګاه او پروژې لپاره یې سیالي (رقابتي) ګټوره ده.

دانش د معلوماتو د اصطلاحاتو قاموس بحث کوي، چې معلومات يوازې يوې جوړې شوې پوښتنې ته ځواب چمتو کوي. دا چې ايا ځواب پوهه چمتو کوي که نه، په خبر ورکړای شوی شخص پورې اړه لري، نو د دې مفهوم يو عمومي تعريف بايد داسې وي: [۲۲]

معلومات = يوې مشخصې پوښتنې ته يو ځواب.

کله چې مارشال مک لوهن (Marshall McLuhan) د رسنيو او په انساني کلتورونو باندې د هغوی د اغېزو په اړه خبرې کوي، نوموړی د لاسي صنعت ساحتمان ته راجع کېږي چې په خپل وار زموږ سلوکيات او د ذهن مجموعې mindsets ته شکل ورکوي. په دې حس کې pheromones ته ډېر ځله معلومات يا information ويل کېږي.

سرچینې

[سمول]
  1. "What Is The Difference Between Data And Information?". BYJUS (په انګليسي). نه اخيستل شوی 2021-08-05.
  2. Luciano Floridi (2010). Information - A Very Short Introduction. fatima gomez University Press. ISBN 978-0-19-160954-1.
  3. "World_info_capacity_animation". YouTube. 11 June 2011. نه اخيستل شوی 1 May 2017.
  4. DT&SC 4-5: Information Theory Primer, 2015, University of California, Online Course, https://www.youtube.com/watch?v=9qanHTredVE&list=PLtjBSCvWCU3rNm46D3R85efM0hrzjuAIg&index=42
  5. Hilbert, Martin; López, Priscila (2011). "The World's Technological Capacity to Store, Communicate, and Compute Information". Science. 332 (6025): 60–65. Bibcode:2011Sci...332...60H. doi:10.1126/science.1200970. PMID 21310967. S2CID 206531385. Free access to the article at martinhilbert.net/WorldInfoCapacity.html
  6. Oxford English Dictionary, Third Edition, 2009, full text
  7. Burnham, K. P. and Anderson D. R. (2002) Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, Second Edition (Springer Science, New York) ISBN 978-0-387-95364-9.
  8. F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek (1997). Spikes: Exploring the Neural Code. The MIT press. ISBN 978-0262681087.
  9. Delgado-Bonal, Alfonso; Martín-Torres, Javier (2016-11-03). "Human vision is determined based on information theory". Scientific Reports (په انګليسي). 6 (1): 36038. Bibcode:2016NatSR...636038D. doi:10.1038/srep36038. ISSN 2045-2322. PMC 5093619. PMID 27808236.
  10. cf; Huelsenbeck, J. P.; Ronquist, F.; Nielsen, R.; Bollback, J. P. (2001). "Bayesian inference of phylogeny and its impact on evolutionary biology". Science. 294 (5550): 2310–2314. Bibcode:2001Sci...294.2310H. doi:10.1126/science.1065889. PMID 11743192. S2CID 2138288.
  11. Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. (1998). "Thomas D. Schneider], Michael Dean (1998) Organization of the ABCR gene: analysis of promoter and splice junction sequences". Gene. 215 (1): 111–122. doi:10.1016/s0378-1119(98)00269-8. PMID 9666097.
  12. Jaynes, E. T. (1957). "Information Theory and Statistical Mechanics". Phys. Rev. 106 (4): 620. Bibcode:1957PhRv..106..620J. doi:10.1103/physrev.106.620.
  13. Bennett, Charles H.; Li, Ming; Ma, Bin (2003). "Chain Letters and Evolutionary Histories". Scientific American. 288 (6): 76–81. Bibcode:2003SciAm.288f..76B. doi:10.1038/scientificamerican0603-76. PMID 12764940. Archived from the original on 2007-10-07. نه اخيستل شوی 2008-03-11. {{cite journal}}: More than one of |archivedate= و |archive-date= specified (help); More than one of |archiveurl= و |archive-url= specified (help)
  14. David R. Anderson (November 1, 2003). "Some background on why people in the empirical sciences may want to better understand the information-theoretic methods" (PDF). Archived from the original (PDF) on July 23, 2011. نه اخيستل شوی 2010-06-23.
  15. Dusenbery, David B. (1992). Sensory Ecology. New York: W.H. Freeman. ISBN 978-0-7167-2333-2.
  16. Vigo, R. (2011). "Representational information: a new general notion and measure of information" (PDF). Information Sciences. 181 (21): 4847–59. doi:10.1016/j.ins.2011.05.020.
  17. Vigo, R. (2013). "Complexity over Uncertainty in Generalized Representational Information Theory (GRIT): A Structure-Sensitive General Theory of Information". Information. 4 (1): 1–30. doi:10.3390/info4010001.
  18. Vigo, R. (2014). Mathematical Principles of Human Conceptual Behavior: The Structural Nature of Conceptual Representation and Processing. New York and London: Scientific Psychology Series, Routledge. ISBN 978-0415714365.
  19. Shannon, Claude E. (1949). The Mathematical Theory of Communication.
  20. Casagrande, David (1999). "Information as verb: Re-conceptualizing information for cognitive and ecological models" (PDF). Journal of Ecological Anthropology. 3 (1): 4–13. doi:10.5038/2162-4593.3.1.1.
  21. Bateson, Gregory (1972). Form, Substance, and Difference, in Steps to an Ecology of Mind. University of Chicago Press. pp. 448–66.
  22. Simonsen, Bo Krantz. "Informationsordbogen - vis begreb". Informationsordbogen.dk. نه اخيستل شوی 1 May 2017.