Theo nghiên cứu gần đây, 50% các tổ chức sử dụng nhiều hơn một nhà cung cấp cơ sở hạ tầng đám mây công cộng, lựa chọn giữa Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform và một loạt các tổ chức khác. 85% những người sử dụng nhiều hơn một nhà cung cấp cơ sở hạ tầng đám mây đang quản lý tối đa bốn nhà cung cấp , tìm kiếm sự phù hợp nhất cho các ứng dụng của họ và phòng ngừa chống lại thời gian chết (down time ) và tự giới hạn với một nhà cung cấp cụ thể. Đương nhiên, với bất kỳ xu hướng nào trong việc áp dụng đám mây, thực tiễn của Shadow IT đóng vai trò vào sự phân mảnh này. Khi chúng ta nhìn vào một sự tiến hóa như thế này, thật hữu ích khi lần đầu tiên hiểu được tiền lệ lịch sử dẫn chúng ta đến thời điểm này, để học hỏi từ quá khứ và nhắc nhở bản thân về sự tiến bộ của những người khác mà chúng ta hiện đang tận hưởng. Chúng ta hãy thực hiện một chuyến đi ngắn qua lịch sử, ở đây với điện toán đám mây, để xem cách chúng ta đến với chúng ta thực tế nhiều  điện toán đám mây.

Thời đại không gian và những kẻ mộng mơ

Cũng trong khoảng thời gian đó, John F. Kennedy đã truyền cảm hứng cho nước Mỹ bằng lời tuyên bố quyết đoán của mình rằng chúng tôi chọn đi lên mặt trăng! Các nhà lãnh đạo trong khoa học máy tính đã mơ về một tương lai trên mặt đất với giới hạn khát vọng tương tự. Khi làm việc tại Cơ quan Dự án Nghiên cứu Tiên tiến của Lầu năm góc Hoa Kỳ (ARPA, hiện được gọi là DARPA), sau đó Giám đốc Văn phòng Kỹ thuật Xử lý Thông tin, JCR Licklider đã viết một bản ghi nhớ cho các đồng nghiệp của mình mô tả một mạng máy tính nói cùng ngôn ngữ và cho phép dữ liệu được truyền và làm việc trên các chương trình “ở một nơi khác”  Từ bản ghi nhớ năm 1963 của ông:

‘Hãy xem xét tình huống trong đó một số trung tâm khác nhau được kết nối với nhau, mỗi trung tâm có tính cá nhân cao và có ngôn ngữ đặc biệt và cách làm việc đặc biệt của riêng mình. Há chẳng phải mong muốn, hoặc thậm chí cần thiết cho tất cả các trung tâm để thoả thuận một số ngôn ngữ, hay ít ra, sau khi một số công ước đã hỏi những câu hỏi như “ngôn ngữ gì bạn nói sao?”’

‘Các chương trình tôi đã định vị trên toàn hệ thống, tôi muốn đưa chúng vào như các chương trình nhị phân có thể định vị lại, hoặc là tại thời điểm mang lại thời gian trực tiếp hoặc tại thời gian chạy .  

Với một hệ thống kiểm soát mạng tinh vi, tôi sẽ không quyết định có nên gửi dữ liệu và xử lý chúng bằng các chương trình ở nơi khác hay đưa chương trình vào và làm cho chúng hoạt động trên dữ liệu của tôi. Tôi không phản đối để đưa ra quyết định rằng, đối với một thời gian ở mức nào, nhưng, về nguyên tắc, có vẻ như tốt hơn cho máy tính, hoặc mạng, bằng cách nào đó, để làm điều đó.”3

Ở đây, ông đang mô tả các con trỏ trước cho internet và ngôn ngữ giao tiếp TCP/IP phổ biến hiện nay của chúng tôi cho phép vô số thiết bị được kết nối có thể nói chuyện với nhau và đám mây. Dự đoán của anh ấy về việc mang lại các chương trình tại thời gian thực, giờ đây đã quá quen thuộc với quyền truy cập dựa trên trình duyệt của chúng tôi vào các ứng dụng đám mây mà chúng tôi sử dụng và thậm chí dự đoán rằng vị trí thực tế của các chương trình đó sẽ không thành vấn đề – rời đi tùy thuộc vào máy tính hoặc mạng để quyết định cách phân bổ tài nguyên hợp lý.

Các tài nguyên được chia sẻ cũng gây ra mối lo ngại cho Licklider:

Tôi không muốn sử dụng tài liệu từ một tập tin đang trong quá trình thay đổi bởi người khác. Có thể, trong các hoạt động chung của chúng tôi, một cái gì đó tương tự như phân loại an ninh quân sự. Nếu vậy, chúng ta sẽ xử lý nó như thế nào?   

Mặc dù chúng tôi đã giải quyết thách thức chỉnh sửa hợp tác trong các ứng dụng đám mây ngày nay, nhưng tầm nhìn của anh ấy đã chỉ ra một vấn đề cuối cùng sẽ trở nên cực kỳ quan trọng đối với cộng đồng bảo mật thông tin – cách xử lý dữ liệu nhạy cảm được giữ ở vị trí bạn không sở hữu.

Dự đoán của CR Licklider đã nhanh chóng chuyển thành hiện thực và thông qua những nỗ lực tiếp theo tại ARPA đã dẫn đến sự lặp lại đầu tiên của internet, hoặc ARPANET. Cảm hứng của ông về sự phát triển của internet và điện toán đám mây là không thể phủ nhận, và giống như tiêu đề của bản ghi nhớ của ông được trích dẫn ở trên,   Bản ghi nhớ dành cho thành viên và các chi nhánh của Mạng máy tính liên kết. khao khát sự vĩ đại vượt xa những gì nhiều người nghĩ là có thể.

Thực tế Điện toán ảo

Song song với nỗ lực của ARPA và nhiều cộng tác viên đại học để kết nối các thiết bị điện toán với nhau, IBM đã phát triển một cách để làm cho các máy tính lớn, chính của họ có hiệu quả hơn về chi phí cho khách hàng của họ. Năm 1972, họ đã phát hành lần lặp đầu tiên của điện toán ảo hóa, hệ điều hành VM / 370.  Từ thông báo chương trình năm 1972:

VM / 370 là một hệ thống chia sẻ thời gian đa truy cập với hai yếu tố chính:

  • Chương trình điều khiển (CP) cung cấp môi trường nơi nhiều máy ảo đồng thời có thể chạy các hệ điều hành khác nhau, như OS, OS / VS, DOS và DOS / VS, ở chế độ chia sẻ thời gian.
  • Hệ thống giám sát hội thoại (CMS) cung cấp khả năng chia sẻ thời gian, mục đích chung.

Vận hành nhiều hệ điều hành thông qua chương trình điều khiển, giống như khái niệm về một trình ảo hóa ngày nay, trên một máy tính lớn đã mở rộng đáng kể giá trị mà khách hàng có thể đạt được từ các hệ thống này và tạo tiền đề cho các máy chủ trung tâm dữ liệu ảo trong những năm tới. Chia sẻ thời gian thông qua CMS cung cấp cho người dùng khả năng đăng nhập và tương tác với từng VM, một khái niệm vẫn được sử dụng ngày nay trong phần mềm ảo hóa và bất cứ khi nào bạn đăng nhập để truy cập dịch vụ đám mây.

Trong những năm 80 và 90, sự trỗi dậy của máy tính cá nhân đã thu hút nhiều sự chú ý từ sự phát triển của môi trường máy tính lớn và trung tâm dữ liệu ban đầu. Sau đó vào năm 1998, VMware đã nộp bằng sáng chế cho “Hệ thống ảo hóa bao gồm một màn hình máy ảo cho một máy tính với một kiến trúc phân đoạn” cái mà   “Đặc biệt là đặc biệt thích nghi cho việc ảo hóa máy tính, trong đó xử lý phần cứng có một kiến trúc x86 của Intel.” – Họ bắt đầu phân phối, bán công nghệ của họ một năm sau đó. Trong khi những người khác bước vào không gian ảo hóa cùng một lúc, VMware nhanh chóng dẫn đầu bằng cách tập trung vào nhiệm vụ khó khăn là ảo hóa kiến ​​trúc x86 được sử dụng rộng rãi, mở rộng giá trị của nhiều khoản đầu tư cơ sở hạ tầng trung tâm dữ liệu hiện có.

Điện toán đám mây có thể sẽ không tồn tại nếu không có hiệu quả tài nguyên của ảo hóa. Các dịch vụ thương mại như Amazon Web Services (AWS), Microsoft Azure và các dịch vụ khác đạt được quy mô kinh tế thông qua cơ sở hạ tầng ảo hóa, giúp máy tính cao cấp có giá cả phải chăng (và đôi khi miễn phí) cho bất kỳ ai.

Không có mối quan hệ với phần cứng, sự trừu tượng từ vị trí vật lý mà Licklider dự đoán bắt đầu đáp ứng thực tế. Các ứng dụng có thể tồn tại ở mọi nơi, được truy cập từ bất cứ đâu và được di chuyển khi cần thiết, cho phép các nhà khai thác đám mây cập nhật phần cứng cơ bản mà không có thời gian chết cho các dịch vụ mà họ chạy. Trừu tượng hóa từ vị trí thực tế cũng cho phép phần mềm và cơ sở hạ tầng ảo hóa tồn tại cách xa bạn – và quốc gia của bạn. Tình trạng khó khăn của quy định dữ liệu xuyên biên giới là một vấn đề đang phát triển, với Quy định bảo vệ dữ liệu chung (GDPR) của EU được cho là tầm với rộng nhất cho đến nay.

Internet Vạn Vật

Nếu bạn là một tổ chức doanh nghiệp đang điều hành một trung tâm dữ liệu vào cuối những năm 90, bắt đầu ảo hóa cơ sở hạ tầng của bạn có ý nghĩa kinh tế. Với tầm nhìn 20/20, chúng ta thấy khi nhìn lại, điều này cũng tạo ra một mô hình kinh doanh tuyệt vời cho các nhà cung cấp thương mại để xây dựng cơ sở hạ tầng ảo hóa và cung cấp phần mềm cho những người khác, những người sẽ sẵn sàng trả trước ít quyền truy cập hơn để lưu trữ và tự duy trì. Salesforce.com đã nhảy vào cơ hội này sớm, tiếp nhận sự yêu thích của Oracle và SAP cho thị trường CRM vào năm 1999.

Năm 2003, kỹ sư Benjamin Black đã đề xuất một cơ sở hạ tầng mới cho Amazon.com, đó là “… hoàn toàn được chuẩn hóa, hoàn toàn tự động, và dựa rộng rãi trên các dịch vụ web cho những việc như lưu trữ.” cũng đề cập đến   “Khả năng bán các máy chủ ảo như một dịch vụ.” Giám đốc điều hành Jeff Bezos đã chú ý, và trong sự hồi tưởng của chính mình, đã nhận xét rằng:  

Chúng tôi đã dành quá nhiều thời gian cho việc phối hợp chi tiết giữa các nhóm kỹ thuật mạng và các nhóm lập trình ứng dụng của chúng tôi. Về cơ bản, những gì chúng tôi quyết định làm là xây dựng một [tập các API] giữa hai lớp để bạn chỉ có thể làm phối hạt thô giữa hai nhóm

Nhìn bề ngoài, điện toán đám mây có vẻ rất khác biệt [với doanh nghiệp bán lẻ của chúng tôi. Nhưng thực tế là chúng tôi đã chạy một ứng dụng quy mô web trong một thời gian dài và chúng tôi cần xây dựng điều này thiết lập các dịch vụ web cơ sở hạ tầng chỉ để có thể quản lý nhà nội bộ của chúng.

Việc xây dựng cơ sở hạ tầng đó cuối cùng đã biến thành một dịch vụ thương mại vào năm 2006, với sự ra mắt của Cloud Compute Cloud (EC2) từ Amazon Web Services (AWS). Từ thông báo năm 2006 của họ:

Cloud Amazon Compute Cloud (Amazon EC2) là một dịch vụ web cung cấp khả năng tính toán có thể thay đổi cấu hình trong đám mây được thiết kế để giúp tính toán quy mô web dễ dàng hơn cho các nhà phát triển.  Amazon EC2 thay đổi kinh tế của máy tính bằng cách cho phép bạn chỉ trả tiền cho công suất mà bạn thực sự sử dụng

Thành công ban đầu của Salesforce.com, Amazon và một số công ty khác đã chứng minh mô hình kinh tế cung cấp dịch vụ qua internet, củng cố vững chắc điện toán đám mây như một phương pháp khả thi để tương tác với cơ sở hạ tầng phần mềm và máy tính. Sự phát triển nhanh chóng trong các dịch vụ đám mây dẫn đến một lượng lớn dữ liệu hạ cánh trong tay các tổ chức không sở hữu nó – và thực tế không thể chịu trách nhiệm về cách thức truy cập. Các nhà môi giới bảo mật truy cập đám mây (CASB) lần đầu tiên được đề xuất vào năm 2012, cung cấp khả năng hiển thị về vị trí của dữ liệu đám mây, bảo vệ dữ liệu trong các dịch vụ và kiểm soát truy cập. Mặc dù CASB là một biện pháp đối phó logic đối với việc mất và tuân thủ dữ liệu trên đám mây, nhiều tổ chức CNTT vẫn đang trong giai đoạn đầu thử nghiệm.

Nền tảng đa đám mây

Với việc phát hành Microsoft Azure vào năm 2010 và Google Cloud Platform vào năm 2011, các lựa chọn thay thế hấp dẫn cho AWS đã tham gia vào thị trường và thúc đẩy thử nghiệm. Không thể tránh khỏi sự cạnh tranh phát sinh, nhưng đã tạo ra một kịch bản trong đó việc chỉ chọn một nhà cung cấp là không cần thiết, hoặc thậm chí có lợi. Nhà cung cấp Linux Redhat đặt nó tốt:

Bạn có thể tìm thấy giải pháp đám mây hoàn hảo cho 1 khía cạnh của doanh nghiệp của mình. Một đám mây độc quyền được tinh chỉnh để lưu trữ một ứng dụng độc quyền, một đám mây hoàn hảo để lưu trữ các hồ sơ công cộng, một đám mây mở rộng cho các hệ thống lưu trữ với tỷ lệ sử dụng biến đổi cao nhưng không một đám mây nào có thể làm mọi thứ. (Hay nói đúng hơn, không có điện toán đám mây duy nhất có thể làm mọi việc.

Khả năng chịu lỗi cũng có thể xảy ra, với sự cố mất điện có chọn lọc nhưng lớn chứng minh rằng việc thêm dự phòng trên nhiều nhà cung cấp đám mây có thể là một chiến lược hợp lý cho doanh nghiệp. Tuy nhiên, câu hỏi thích hợp nhất phát sinh từ xu hướng này là làm thế nào để quản lý tất cả? Cấu hình thủ công của nhiều môi trường đám mây đương nhiên sẽ là một nỗ lực tốn thời gian. Để tăng tốc thời gian triển khai, khái niệm về cơ sở hạ tầng dưới dạng mã (cơ sở hạ tầng có thể lập trình được) đã được phát triển, phát triển bản chất của điện toán đám mây một lần nữa. Tác giả Chris Riley mô tả khái niệm:

Thay thế cơ sở hạ tầng thủ công, bạn có thể viết các kịch bản để làm điều đó.   Nhưng không chỉ là kịch bản, bạn thực sự có thể kết hợp đầy đủ các cấu hình trong mã ứng dụng của bạn.

Các nhà cung cấp thương mại như Puppet Labs, Chef và Ansible đã xây dựng công nghệ trên tiền đề này, cho phép triển khai tự động trên nhiều nhà cung cấp đám mây. Đối với bảo mật, thách thức của phân mảnh là tương tự, nhưng các giải pháp cũng vậy. Dữ liệu và ứng dụng cần được bảo vệ khỏi các mối đe dọa bên ngoài và bên trong, thậm chí là cấu hình sai.   AWS , Azure , và Google tất cả đều có sự phân chia tài liệu tốt trong trách nhiệm bảo mật  điện toán đám mây được chia sẻ giữa họ và khách hàng.